Мы позволяем искусственному интеллекту принимать за нас слишком много решений — психолог
Ученый-бихевиорист Герд Гигеренцер на протяжении десятилетий изучал, как люди делают выбор в ситуации неопределенности. Он объясняет, как искусственный интеллект и социальные сети меняют нашу жизнь.
В эпоху ChatGPT компьютерные алгоритмы и искусственный интеллект все больше внедряются в нашу жизнь: выбирают контент, который мы видим в интернете, и отвечают на самые разные наши вопросы — от бытовых до экзистенциальных. Алгоритмы искусственного интеллекта могут изменять наш мир и поведение способами, которые мы не до конца понимаем, говорит психолог и исследователь поведения Герд Гигеренцер, автор книги «Как оставаться умным в умном мире».
Когда искусственный интеллект лучше человеческого разума
По словам эксперта, такие сложные алгоритмы, как нейросети, могут быть лучшими и более полезными, чем поступки человека, в том случае, если мы имеем дело со стабильной ситуацией, к примеру, игрой в шахматы. Но если у вас нестабильная проблема — например, вы хотите предсказать коронавирус, — то лучше держаться подальше от компьютерных алгоритмов.
Работа с неопределенностью — это область, в которой должен работать человеческий разум, поскольку только он способен определять один или два важных сигнала и игнорировать остальные. В такого рода нечетких задачах алгоритмы не работают. Чтобы получить максимальную отдачу от ИИ, мир должен был бы быть более предсказуемым.
«Нейросети имеют много-много слоев, но они по-прежнему просто вычислительные машины. Они могут нарисовать изображение, могут создать текст. Но это не значит, что они понимают текст так же, как люди», — рассуждает Герд Гигеренцер.
Если вы не анализируете того, что подсовывают вам алгоритмы, и не разбираетесь в настройках конфиденциальности, то технологии будут управлять вами все больше
Новшества, появляющиеся сейчас в мире технологий, касаются каждого человека, так как они перекраивают мировой порядок: контроль над людьми концентрируется в руках правительств и технологических компаний. По словам Герда Гигеренцера,
цифровые технологии могут легко склонить весы в сторону авторитарных систем.
Люди не имеют желания разбираться с настройками приватности (ведь это так долго, неинтересно и непонятно), и в итоге становятся объектами слежки. Исследователь описывает это следующим образом:
«Подумайте о кафе в вашем родном городе, где дают бесплатный кофе. Все ходят туда, потому что это бесплатно. Итак, у вас больше нет выбора, но по крайней мере вы получаете кофе бесплатно, а также наслаждаетесь контактами с друзьями. Однако в этом кафе на столах есть микрофоны, а на стенах — видеокамеры, которые фиксируют все, что вы говорите — каждое слово, и кому-то отправляют на анализ. Также в кафе множество продавцов, которые постоянно прерывают ваши разговоры, чтобы предложить вам персонализированные продукты. Это примерно та же ситуация, в которой вы находитесь на Facebook, в Instagram или на других платформах. В этом кафе вы не покупатель. Вы продукт. Но мы хотим иметь кафе, где нам снова разрешат платить за себя, чтобы мы были клиентами».
Не стоит отдавать свои данные и свою ответственность за собственные решения технологическим компаниям, которые используют их для заработка на рекламодателях. Человеку нужно вернуть ответственность за собственные действия — хотя это и может быть не так легко, как кажется на первый взгляд.
Про лайки
Герд Гигеренцер также обращает внимание на механизм «прерывистого подкрепления», в который нас втягивают социальные сети. Мы получаем лайки, но никогда не знаем, когда именно их получим. Поэтому люди продолжают возвращаться на платформу снова и снова. Это действительно изменило менталитет и сделало людей зависимыми. «Я думаю, что каждому важно осознавать этот механизм», — говорит ученый. По его мнению, мы сможем снова получить контроль над социальными сетями, если сами этого захотим.
Читайте еще:
Смартфоны создают угрозу психическому здоровью подростков
Что такое ChatGPT и почему к нему относятся неоднозначно?
Рассказываем, как узнать, где и кому вы ставили лайки в соцсетях, и перестраховаться
Комментарии