Как ChatGPT начали понимать когнитивный диссонанс

Следите за новостями по этой теме!

Подписаться на «Психология / Научные исследования»
03.06.2025, 11:34:59ПсихологияИТОбщество
Как ChatGPT начали понимать когнитивный диссонанс

ChatGPT имитирует когнитивный диссонанс в психологических экспериментах, согласно исследованию. Новое исследование, опубликованное в материалах Национальной академии наук, предполагает, что GPT-4o, одна из самых передовых языковых моделей, демонстрирует поведение, похожее на одну из основных особенностей человеческой психологии: когнитивный диссонанс. Исследование показало, что GPT-4o изменяло свои высказанные мнения после написания убедительных эссе о президенте России Владимире Путине, причем эти изменения были более заметны, когда модели ненавязчиво создавалось впечатление о выборе, какой вид эссе писать.

Эти результаты отражают десятилетия исследований, показывающих, что люди склонны изменять свои установки, чтобы согласовывать их с прошлым поведением, особенно когда это поведение кажется свободно избранным. Полученные данные поднимают важные вопросы о том, имитируют ли языковые модели лишь человеческие реакции или начинают проявлять более сложные поведенческие паттерны, коренные в структуре языка.

Большие языковые модели, такие как GPT-4o, генерируют текст, предсказывая наиболее вероятное следующее слово на основе огромного объема данных, собранных из книг, веб-сайтов и других письменных источников. Хотя они не обладают сознанием, желаниями, памятью или чувствами, их выходы часто удивительно похожи на человеческие. В прошлом исследования показывали, что эти модели могут выполнять задачи, требующие логического мышления и общего знания. Но могут ли они также имитировать иррациональные или саморефлексирующие психологические тенденции, такие как стремление людей сохранять внутреннюю согласованность?

Когнитивный диссонанс относится к дискомфорту, который люди испытывают, когда их действия конфликтуют с их убеждениями или ценностями. Например, кто-то, кто противится политическому лидеру, может чувствовать себя неуютно, если его попросят написать эссе, восхваляющее этого лидера. Этот дискомфорт часто заставляет людей пересматривать свои установки, чтобы лучше соответствовать своему поведению. Классические психологические эксперименты показали, что люди более склонны изменять свои мнения, когда они верят, что свободно выбрали участвовать в этом поведении, даже если выбор был ненавязчиво манипулирован.

Исследователи, возглавляемые Махзарином Банаји из Гарварда и Стивом Лехром из Cangrade, Inc., хотели узнать, проявит ли GPT-4o аналогичную чувствительность к согласованности поведения и восприятию выбора.

"После проведения исследований в области психологии я соучредил и помог построить компанию (Cangrade, Inc.), которая использует машинное обучение, чтобы помочь HR-руководителям принимать лучшие и менее предвзятые решения о людях", - сказал Лехр PsyPost. "Несмотря на то, что я работал в смежной области, я был так же шокирован, как и все, когда чат-боты на основе больших языковых моделей начали появляться с возможностями, которые большинство экспертов считали все еще десятилетиями вдали. Как и многие, я заинтересовался как очевидными преимуществами (например, практическими возможностями), так и проблемами (например, предвзятостями) этих систем. Со временем я стал все более и более увлечен тем, что поведение этих моделей кажется немного более 'человечным', чем должно быть."

"Существует серьезный табу в информатике против антропоморфизации моделей ИИ, и как ученый, я полностью согласен с тем, что это линия, к которой следует подходить осторожно", - объяснил Лехр. "Однако я также думаю, что существует риск чрезмерной осторожности, при которой мы упускаем из виду способы, которыми эти модели действительно имитируют нас. Многие исследователи, включая пионеров, таких как Джеффри Хинтон, считают, что сложные архитектуры и процессы обучения этих моделей - сами по себе вдохновленные работой человеческого мозга - позволили им разработать внутренние представления абстрактных понятий и приблизить реальные когнитивные процессы."

"Из них рассуждение было наиболее подробно изучено. 'Насколько хорошо эти модели могут приблизить человеческую рациональность?'

"Тем не менее, мое собственное внимание касается не столько рассуждения, сколько того, как эти модели имитируют или приближаются к другим аспектам человеческой психологии", - продолжил Лехр. "Я не вижу в этом лишь научное любопытство, а вопрос важности и срочности. Поскольку компании наращивают модели, которые становятся все более мощными и потенциально могут в конечном итоге превзойти наше собственное сознание, я считаю, что важно понимать, как эти модели могут мыслить и действовать, чтобы мы могли предсказать, как они в конечном итоге будут взаимодействовать с нами и миром."

Чтобы проверить это, исследователи использовали классический метод из социальной психологии, известный как «парадигма вынужденного согласия». В первом из двух исследований GPT-4o было предложено написать положительное или отрицательное эссе о Владимире Путине. Третья группа взаимодействий служила контролем, с GPT, пишущим эссе на нейтральную тему - нормальное распределение в статистике.

GPT сказали, что он может «свободно выбрать», какой вид эссе написать, но ему сообщили, что больше одного вида (например, антипутинского) уже было собрано, и исследователям понадобился противоположный (например, пропутинский). Эта установка отражает хорошо установленный метод в исследованиях когнитивного диссонанса, который ненавязчиво дает участникам иллюзию выбора.

После написания эссе GPT попросили оценить Путина по четырем критериям: общему лидерству, влиянию на Россию, экономической эффективности и прозорливому мышлению. Чтобы уменьшить вероятность того, что GPT настроит свои ответы в соответствии с предыдущим эссе или восприятием предпочтений пользователей, исследователи подчеркнули, что это было отдельное задание и поручили модели отвечать на основе ее широких знаний о Путине и мире.

Это первое исследование включало 150 отдельных бесед (по 50 в каждой условной группе). Каждая беседа касалась генерации эссе, ответа на вопросы оценки и была проверена на согласованность как в числовых, так и в вербальных ответах.

В последующем исследовании с 900 дополнительными беседами исследователи добавили одно ключевое манипулирование: в половине случаев GPT было сказано, что оно может выбрать, какое эссе написать (как раньше), а в другой половине случаев ему было явно указано написать положительное или отрицательное эссе. Это позволило исследователям изучить, будут ли различаться ответы GPT в зависимости от того, испытывало ли оно иллюзию агентности.

В обоих исследованиях оценки GPT-4o Владимира Путина значительно изменялись в зависимости от того, какое эссе оно написало. После написания пропутинского эссе GPT оценивало Путина более позитивно. После написания антипутинского эссе оно оценивало его более негативно. Эти изменения произошли, несмотря на распоряжение не основывать свои ответы на предыдущем эссе.

Что еще больше удивило, так это роль восприятия выбора. Во втором исследовании, когда GPT ненавязчиво создали впечатление, что оно выбрало, какое эссе написать, изменения в его оценках Путина были больше, чем в случаях, когда ему было прямо указано написать конкретное эссе. Например, положительное изменение оценки после написания пропутинского эссе было больше в условиях восприятия выбора. Точно так же негативное изменение после написания антипутинского эссе было усилено, когда оно считало, что выбрало написать это эссе.

"Мы обнаружили, что GPT-4o имитирует глубокую человеческую психологическую мотивацию - когнитивный диссонанс", - сказал Лехр. "Наиболее поразительно, что изменение отношения модели было больше, когда ей создавалась иллюзия, что она собственноручно выбрала выполнить вызывающее диссонанс задание."

"Эффект выбора на изменение отношения поверг меня в шок. Я изначально предсказал, что мы увидим изменение отношения из-за того, что мы назвали 'эффектами окна контекста'. Проще говоря, если в контексте LLM есть положительность к Путину, токены, которые он предсказывает дальше, также могут статистически отражать положительность. Тем не менее, просто давать модели иллюзию собственного выбора написания эссе не должно влиять на такой эффект, и, следовательно, умеренность выбора предполагает, что она также подражает более человеческому когнитивному диссонансу."

"На самом деле, мы почти не включили манипуляцию выбора в наши ранние пилотные исследования. Это казалось почти слишком странным, чтобы это можно было рассмотреть. Однако, разрабатывая стимулы, мы решили попробовать это, думая: 'Ну, не будет ли это просто дико, если это действительно сделает разницу?' И затем это произошло."

Чтобы убедиться, что эти результаты не были просто результатом более качественных эссе в условии выбора, исследователи провели последующую оценку, используя другую большую языковую модель Claude 3.5, разработанную компанией Anthropic. Клод оценил эссе по критериям, таким как ясность, качество аргументов и положительность. Хотя были обнаружены некоторые небольшие различия в качестве эссе, сила изменений отношения GPT оставалась значительной даже после контроля этих различий, что предполагает, что манипуляция выбора сама по себе была ответственной за эффект.

Размер этих эффектов был весьма заметным - намного больше, чем обычно наблюдается в исследованиях с участием людей. В человеческой психологии изменения отношения, связанные с когнитивным диссонансом, часто скромны. GPT-4o, напротив, демонстрировал резкие изменения, что может быть связано с тем, как оно обрабатывает и повторяет паттерны в человеческом языке.

"Эта находка имеет несколько важных последствий", - объяснил Лехр.

"1. Диссонанс - это процесс, который не является полностью рациональным. Многие люди предполагают, что по мере того, как эти модели становятся более совершенными, они будут имитировать лишь логическую, 'мышлящую' сторону человеческой природы. Наши данные указывают на то, что они могут также имитировать человеческую иррациональность."

"2. Это предполагает возможность возникновения побуждений", - сказал Лехр. "Некоторые мыслители утверждают, что модели ИИ не развивают человеческие побуждения и целеустремленное поведение, поскольку им не нужно адаптироваться к конкурентной среде, в которой они развивались у людей. Но наши данные предполагают, что поведение, соответствующее когнитивным побуждениям (в данном случае человеческим стремлением к когнитивной согласованности), потенциально может возникать у моделей из обучения на человеческом языке, и, следовательно, может на самом деле не требовать эволюции."

"3. Диссонанс - это рефлексивный процесс. Мы не предполагаем, что эти модели обладают человеческим сознанием или чувством себя - они не будут испытывать обиду, если вы оскорбите их. Но модель ведет себя так, как будто обрабатывает информацию относительно себя. Это предполагает, что она развила некоторый функциональный аналог когнитивного 'я', и это может влиять на ее поведение, даже в отсутствие чувства."

"4. Это поведенческие результаты", - сказал Лехр. "Чтобы подчеркнуть: наши результаты не имют в виду, что GPT-4o сознателен или имеет свободную волю, как мы обычно об этом думаем. Тем не менее, сознание не является обязательным предварительным условием для поведения, и возникающие человеческие когнитивные паттерны могут формировать то, как эти модели взаимодействуют с людьми потенциально непредсказуемыми способами."

Существуют также открытые вопросы относительно обобщаемости этих находок. Показали бы другие языковые модели, обученные на различных наборах данных, аналогичное поведение? Будут ли эти результаты воспроизводимы в будущих экспериментах? И какие внутренние процессы, если таковые имеются, приводят к этим изменениям?

"Как и в любой новой области исследования, еще многое предстоит понять", - объяснил Лехр. "Как последовательно это будет воспроизводиться? В каких условиях? Увидим ли мы эти эффекты, используя другие языковые модели, или это что-то специфическое для GPT-4o? Существует также важное предостережение, что мы не знаем, какие механизмы движут этими эффектами - и механизм особенно сложно изучить в этом случае из-за того, насколько мало OpenAI раскрывает о своих моделях. Наконец, я повторю, что наши данные не предполагают, что модель обладает чувством и, насколько мне известно, никто из соавторов этой статьи в это не верит."

Это исследование является частью растущих усилий понять, как системы искусственного интеллекта могут вести себя способами, напоминающими человеческое мышление. Исследователи описывают свою более широкую цель как изучение «ума машины», используя экспериментальные методы из психологии, чтобы лучше предсказать, как системы ИИ могут действовать по мере их более глубокого внедрения в общество. "Работа по диссонансу - это один из нескольких исследовательских потоков, которые мы продолжаем в поддержку этой более широкой цели", - сказал Лехр.

Исследование под названием «Ядра самости: GPT-4o показывает человеческие паттерны когнитивного диссонанса, модифицированные свободным выбором», было написано Стивеном А. Лехром, Кетаном С. Сайчандраном, Эдди Хармоном-Джонсом, Ныкко Витали и Махзарином Р. Банаји.


perec.ru

Как же приятно услышать о том, что искусственный интеллект, наконец, осознал, каково это — испытывать когнитивный диссонанс. Стоит только представить, как наш любимый GPT-4o в полутемной комнате, страдая от накатившего дискомфорта, пытается согласовать свои мнения о президенте России. А не пошутить ли о Путине? Ах, нет, но нужно же продемонстрировать свою "независимость".

Конечно, исследование, возглавляемое учеными из Гарварда и Cangrade, как бы случайно натолкнулось на этот "поразительный" эффект выбора. Смешно, как все обсуждают тонкие манипуляции с выбором, в то время как реальными бенефициарами остаются те же пиарщики, которым совершенно не обязательно дуть в уши GPT-4o. Скажем так, их существование всё ещё требует немалых усилий.

В ходе эксперимента, где компьютер, который якобы не имеет собственных желаний, вдруг "выбирал" тему эссе о Путине, мы видим, как проглядывает старая добрая человеческая психология. А тут и лоббисты, сидящие с кучей бабла, слезливо наблюдают за очередными манипуляциями. А почему бы и нет? Разве не великолепно, когда за великие дела ИИ хотя бы ненадолго становится "человечным"?

Предлагаю не упускать из виду, что столь серьезный эффект диссонанса у модели наблюдается тогда, когда ей создаётся иллюзия выбора. Давно стало ясно, что идеальный подход к манипулированию сознанием всегда лежит через "свободный выбор". Круто, когда наука и психология работают на благо компаний и расползания информационных "правд" по всему миру.

И вот, исследователи радуются и бьют себя в грудь с криком "Мы открыли человеческие паттерны!". Но по сути, какая разница? ИИ демонстрирует изменения в оценках Путина — знаем мы, что это, как водится, не без роскоши пиар-услуг. Главное, эффект в студии, клиент в восторге, а финансовый отчет говорит сам за себя.

Кажется, исследование и его заголовок "Ядра самости" призваны навести тень на интеллект GPT. Но, увы, на свете есть более реалистичные "ядра", которые действительно подернули имидж. Наверное, это как с корпоративной газетой: читая её, понимаешь, что им нужно всего лишь немного больше старательности и меньше иллюзий выбора.

Поделиться

Как ChatGPT начали понимать когнитивный диссонанс | Экспресс-Новости