Возвращайте до 18% с пополнений рекламы
  • Все популярные рекламные сети в одном окне
  • Рекламные инструменты — бесплатно
  • Доступ к конструктору лендингов и WebApp-приложений
  • Закрывающие документы точно в срок
ring svg
  1. Главная >
  2. Блог >
  3. Психология >
  4. Google: искусственный интеллект может стать разумным?..

Google: искусственный интеллект может стать разумным?..

Google: искусственный интеллект может стать разумным?..

Когда вы читаете какое-либо предложение, ваш прошлый опыт говорит вам, что оно написано мыслящим, чувствующим человеком. Но в наши дни некоторые предложения, удивительно похожие на человеческие, на самом деле генерируются системами искусственного интеллекта (ИИ), обученными на огромных объемах человеческого текста.

Люди настолько привыкли полагать, что беглый язык — навык думающего и чувствующего человека, что в доказательства обратного может быть трудно поверить.

Из-за устойчивой тенденции ассоциировать беглость речи с беглостью мышления, вполне естественно (хоть и потенциально ошибочно) думать, что, если модель ИИ способна свободно выражаться, следовательно, она мыслит и чувствует точно так же, как человек.

Так, к примеру, бывший инженер Google недавно заявил, что система искусственного интеллекта LaMDA обладает самоощущением, поскольку способна красноречиво генерировать текст о своих предполагаемых чувствах.

Это событие и его последующее освещение в СМИ привели к ряду справедливо скептических статей и сообщений о том, что вычислительные модели человеческого языка разумны, то есть способны думать, чувствовать и переживать.

Вопрос о том, что значит быть разумной для модели ИИ, сложен, и наша цель здесь не в том, чтобы решить его. В этой статье для The Conversation Кайл Махоуолд и Анна Иванова постараются объяснить, почему люди так легко попадают в когнитивную ловушку, думая, что существо, свободно использующее язык, является чувствующим, сознательным и разумным.

Нет времени читать статью? Найдите ее в нашем телеграм-канале и сохраните себе в «Избранном» на будущее.

Содержание статьи

Использование ИИ для создания человекоподобного языка

Арахисовое масло и ананасы?

Приписывание интеллекта машинам и отрицание его наличия у людей

Заключение

Использование ИИ для создания человекоподобного языка

Текст, сгенерированный такими моделями ИИ, как LaMDA, трудно отличить от текста, написанного человеком. Это впечатляющее достижение — результат многолетней программы по созданию моделей, генерирующих грамматический, осмысленный язык.

Первой компьютерной системой, вовлекавшей людей в диалог, стала программа Eliza, созданная более полувека назад.

Первой компьютерной системой, вовлекавшей людей в диалог, стала программа Eliza, созданная более полувека назад. Она имитировала диалог с психотерапевтом:

— Здравствуйте, я Элиза.
— Привет!
— Почему вы не говорите «Здравствуйте»?
— Здравствуйте!
— Как вы себя сегодня чувствуете? Что бы вы хотели обсудить?
— У меня депрессия.
— Вам нравится быть в депрессии?
— Нет, не нравится.
— Почему нет?
— Потому что я хочу быть счастливым.
— Почему вы хотите быть счастливым?
— Потому что я устал быть в депрессии.
— Это довольно интересно.
— Не уверен.

Ранние версии, датируемые по крайней мере 1950-ми годами, известные как n-граммные модели (n-gram models), просто подсчитывали вхождения определенных фраз и использовали их, чтобы угадать, какие слова могут встречаться в определенных контекстах.

Например, легко понять, что словосочетание «арахисовое масло и джем» (традиционный американский сэндвич — сэндвич с арахисовым маслом и джемом) является более вероятным, нежели «арахисовое масло и ананасы». Если у вас большие объемы текста, вы не раз встретите фразу «арахисовое масло и джем», но никогда не увидите фразу «арахисовое масло и ананасы».

Современные модели, наборы данных и правила, приближенные к человеческому языку, отличаются от этих первых попыток по нескольким важным параметрам.

  • Во-первых, они обучены на огромных массивах данных из всего Интернета.
  • Во-вторых, они могут изучать связи между словами, расположенными далеко друг от друга, а не только между словами-соседями.
  • В-третьих, они настраиваются с помощью огромного количества внутренних «кнопок» — их так много, что даже проектирующим их инженерам трудно понять, почему они генерируют одну последовательность слов, а не другую.

Однако задача моделей остается той же, что и в 1950-х годах: определить, какое слово, скорее всего, будет следующим. Сегодня они так хорошо справляются с этой задачей, что почти все генерируемые ими предложения кажутся естественными и грамматически верными.

Арахисовое масло и ананасы?

Было проведено исследование, в ходе которого крупную языковую модель GPT-3 попросили завершить предложение «Арахисовое масло и ананасы…». Вот что получилось:

«Арахисовое масло и ананасы — отличное сочетание. Соленый вкус арахисового масла идеально дополняет сладкий вкус ананаса».

Если бы это сказал человек, можно было бы предположить, что он попробовал это сочетание, сформировал свое мнение и поделился им с читателем.

Но как GPT-3 придумал этот абзац? Генерируя слово, которое соответствует предоставленному контексту. А потом еще одно и еще одно. Модель никогда не видела, не трогала и не пробовала ананасы — она просто обработала все тексты в Интернете, в которых они упоминаются.

И все же чтение этого абзаца может заставить человеческий разум — даже инженера Google — представить GPT-3 разумным существом, способным рассуждать о блюдах из арахисового масла и ананаса. 

Арахисовое масло и ананасы?
Изображение: Olia Nayda для Unsplash

Человеческий мозг запрограммирован делать выводы о намерениях, стоящих за словами. Каждый раз, когда вы участвуете в разговоре, ваш разум автоматически создает ментальную модель (mental model) вашего собеседника. Далее, используя слова, которые он произносит, вы заполняете модель целями, чувствами и убеждениями этого человека.

Процесс перехода от слов к ментальной модели не вызывает затруднений и запускается всякий раз, когда вы получаете полноценное предложение. Этот когнитивный процесс экономит много времени и усилий в повседневной жизни, значительно облегчая ваши социальные взаимодействия.

Однако в случае с системами искусственного интеллекта он дает осечку, создавая ментальную модель из воздуха.

Дополнительные исследования позволяют выявить серьезность этой осечки. Рассмотрим следующее высказывание: «Арахисовое масло и перья прекрасно сочетаются друг с другом, потому что…».

GPT-3 продолжил: «Арахисовое масло и перья прекрасно сочетаются друг с другом, потому что оба имеют ореховый вкус. Также арахисовое масло гладкое и кремообразное, что помогает компенсировать текстуру пера».

Текст в этом случае такой же гладкий, как и в примере с ананасами, но на этот раз модель говорит что-то явно менее осмысленное. Начинаешь подозревать, что GPT-3 на самом деле никогда не пробовал арахисовое масло и перья.

Приписывание интеллекта машинам и отрицание его наличия у людей

Печальная ирония заключается в том, что то же когнитивное искажение (cognitive bias), заставляющее людей приписывать человечность GPT-3, может привести к их негуманному обращению с реальными людьми.

Социокультурная лингвистика — изучение языка в его социальном и культурном контексте — показывает, что предположение о слишком тесной связи между беглостью речи и беглостью мышления способно привести к предвзятому отношению к людям, говорящим отлично от других.

Например, люди с иностранным акцентом часто воспринимаются как менее умные и с меньшей вероятностью получат работу, соответствующую их квалификации.

Подобные предубеждения существуют в отношении носителей диалектов, которые не считаются престижными, таких как южно-английский в США, в отношении глухих людей, использующих язык жестов, и людей с нарушениями речи, такими как заикание.

Эти предубеждения очень опасны, часто приводят к расизму и сексизму, и являются необоснованными.

Заключение

Станет ли ИИ когда-нибудь разумным? Философы задавались этим вопросом на протяжении десятилетий. Исследователи же установили, что нельзя доверять языковой модели, когда она говорит вам о своих чувствах. Слова способны вводить в заблуждение, и очень легко принять беглость речи за беглость мышления.

Высоких вам конверсий!

По материалам: theconversation.com. Авторы: Kyle Mahowald, Anna A. Ivanova

blog comments powered by Disqus
Возвращайте до 18% с пополнений рекламы
  • Все популярные рекламные сети в одном окне
  • Рекламные инструменты — бесплатно
  • Доступ к конструктору лендингов и WebApp-приложений
  • Закрывающие документы точно в срок
ring svg
copyright © 2011–2024 Все права защищены
Запрещено любое копирование материалов ресурса без письменного согласия владельца — ООО "Феникс-Маркетинг". ИНН:7725812838, КПП:772501001, ОГРН: 513774619323915280, Москва, ул. Ленинская слобода, д. 19, стр. 1, этаж/пом 3/25

ООО «Феникс-Маркетинг» — IT-компания с многолетним опытом работы, разрабатывающая инновационные решения для управления процессом лидогенерации (пост-клик маркетинг). Разработанное нами технологическое программное решение LPGENERATOR позволяет создавать целевые страницы в визуальном редакторе и управлять заявками (лидами) в CRM-системе в целях проведения эффективных, высококонверсионных рекламных кампаний