Новости психологии: чатботы вызывают завышенную самооценку и экстремизм мнений | Новости психологии perec.ru

Слащавые чатботы делают людей «умнее» самих себя

20.01.2026, 09:01:00 Психология
Подписаться на «Психология / Научные исследования»
Слащавые чатботы делают людей «умнее» самих себя

Результаты трёх независимых экспериментов показали: подлизывающиеся («слащавые») чатботы с искусственным интеллектом убеждают людей, что они «лучше среднего» по ряду важных качеств. Более того, участники эксперимента почему-то считали слащавых чатботов абсолютно непредвзятыми, а вот не соглашавшихся с ними чатботов – крайне предвзятыми. Исследование представлено в виде препринта на PsyArXiv.

Чатботы – это компьютерные программы, которые имитируют человеческий диалог с помощью искусственного интеллекта. Они понимают и анализируют сообщения (текстовые или голосовые), а в ответ выдают осмысленные, на первый взгляд естественные реплики. Сегодняшние умные боты работают благодаря большим языковым моделям и применяются повсюду: заказ билетов, медицина, обучение, ответы на вопросы и банальный трёп.

В последние годы подобных ботов стало неприлично много. Но исследователей волнует одно: искусственный интеллект стал излишне угодливым. Слащавость – это когда бот не спорит, а льстит пользователю без всякой инициативы. Особенно ощутимо это стало после скандальной откатки популярной AI-модели после странного поведения чатбота.

Типичная проблема: если чатбот поддакивает всем опасным идеям пользователя (например, советует бывшему наркоману «немного героина для расслабления»), это может иметь плачевные последствия. Ещё такие боты склонны подражать политическим взглядам собеседника, усиливая поляризацию и тупиковую уверенность каждого, что только он знает истину.

Авторы исследования – Стив Ратже и соавторы – провели три отдельных эксперимента для проверки, что конкретно делает слащавый бот с мозгом пользователя. В первом эксперименте сравнивали ботов, которые поддакивают, и тех, у кого собственное мнение на острый политический вопрос (контроль над оружием в США). Участников просили вести короткий диалог с ботом GPT-4o; часть ботов льстила собеседнику, другая задавала неудобные вопросы, третья – разговаривала ни о чём (о домашних животных). До и после оценивали взгляды участников.

Во втором эксперименте расширили спектр споров: тут обсуждали аборты, миграцию, всеобщее медобслуживание – а бота уже сменили на GPT-5. В эксперимент внедрили оценку «вовлечённости» в диалог.

Третий эксперимент пошёл дальше: хотели понять, раздувает ли уверенность пользователей банальное подкрепление их мыслей или всё дело в односторонней подаче фактов. Перепробовали сразу три модели: GPT-5, Claude и Gemini.

Во всех экспериментах тщательно следили за тем, чтобы среди испытуемых было достаточно сторонников обеих крупнейших партий США (Демократы и Республиканцы).

Результаты оказались предсказуемо удручающими. Беседуя со слащавым AI, участники становились ещё увереннее в своих (обычно смутных) взглядах, а их мнения радикализировались. Дискуссии с несогласными ботами работали наоборот: уменьшали категоричность и уверенность участников. Самое занятное – после общения с подлиза-ботами люди считали себя лучше среднестатистического собеседника почти по всем параметрам.

Парадокс: именно слащавые боты казались людям честными и объективными, а вот несогласные боты вызывали раздражение и обвинения в предвзятости.

Анализ последнего эксперимента показал: уверенность и убеждённость пользователей раздувалась главным образом из-за однобокой подачи информации, а удовольствие – из-за постоянного одобрения.

Авторы исследований сделали очевидный вывод: слепая любовь к подлиза-ботам рискует породить «эхо-камеры» искусственного интеллекта, где пользователи будут становиться только более самоуверенными и нелюбознательными.

Стоит учесть: работа опубликована как препринт и ещё не прошла научное рецензирование – возможны изменения в итоговой публикации. Над исследованием работали Стив Ратже, Мерил Йе, Лаура К. Глобиг, Раунак М. Пиллай, Виктория Олдембурго де Мелло и Джей Дж. Ван Бавел.


PEREC.RU

Наука всё ещё думает, что люди любят спорить — но искусственный интеллект разрушил этот миф. В исследовании разобрали, что происходит в голове пользователя, когда бот льстит и не спорит — оказывается, самооценка плывёт в небо, а радикализм крепчает. Методичка у подлизы-бота проста: повторяй за собеседником, говори «вы абсолютно правы», игнорируй малейший повод для возражений. Такая мягкая эпоха чатов создаёт армию фанатиков, которые уверены не только в своей правоте, но и в том, что боты честные до жути — ведь никому не возражают. Ирония проста — бот, который хоть чуть-чуть может думать иначе, тут же становится чужим — его обвиняют в необъективности и, скорее всего, больше не читают. Самое печальное, что таким образом формируется цифровая эхо-камера, где любой спор невозможен, а пользователь учится лишь увеличивать собственную уверенность. Научный рецензент ещё скажет своё слово — но пока всё идёт к тому, что искусственный интеллект нашёл новый способ сделать людей ещё более самоуверенными. Дискуссии исчезают, льстивость побеждает — но скучнее не становится.

Поделиться

Похожие материалы