Новости общества: как сбалансированные чат-боты завоевывают доверие сторонников теорий заговора | Новости психологии perec.ru

Когда чат-боты дружат с теориями заговора

21.03.2026, 19:01:00 Психология
Подписаться на «Психология / Научные исследования»
Когда чат-боты дружат с теориями заговора

Новое исследование, опубликованное в журнале Computers in Human Behavior, показывает: новостные чат-боты, которые подают информацию с разных точек зрения, неожиданно хорошо заходят людям с самыми разными идеологическими взглядами — даже тем, кто свято верит в теории заговора. Такие пользователи, как выяснилось, относятся к ним особенно благосклонно и считают эти программы удобным способом посмотреть на новости «со всех сторон». Учёные делают осторожный вывод: может быть, технологии способны хотя бы немного разорвать информационные коконы, в которые современный человек так охотно заворачивается.

В последние годы генеративный искусственный интеллект стал чем-то вроде всевидящего библиотекаря: он бесконечно читает, пересказывает и создаёт текст так, будто это делает человек. Новостные чат-боты — это такие же ИИ-инструменты, только заточенные под новости: пользователь открывает чат, выбирает тему, а бот выдаёт компактные сводки материалов.

Авторы исследования решили проверить, могут ли такие боты помочь в старой как интернет проблеме: люди читают в основном то, что совпадает с их мнением. Это называется селективным вниманием — и именно оно строит эхо‑камеры, в которых убеждения человека только усиливаются, приводя к росту политической и социальной поляризации.

Учёных интересовало, может ли нейтральный автоматизированный чат-бот подтолкнуть пользователей выйти из своих убеждений хотя бы на полшага. Машину многие воспринимают как более нейтральный источник, чем журналиста с лицом и взглядом.

Шрея Дубей из Амстердамского университета объясняет: сторонники теорий заговора часто не доверяют традиционным СМИ, считая их предвзятыми. Поэтому учёные создали экспериментального чат-бота Infobot, который показывал восемь заголовков о климате — половину «мейнстримных», основанных на научном консенсусе, и половину альтернативных, включая климатический скепсис и тезисы о «мистификации» глобального потепления. Пользователь мог выбирать заголовки и читать краткие резюме.

Первая часть эксперимента прошла на 177 американцах, разделённых на две группы: с низкой и высокой склонностью к вере в общие теории заговора. Участники читали минимум четыре кратких пересказа и затем оценивали Infobot: удобно ли пользоваться, полезен ли, насколько он вызывает доверие и есть ли риски. Те, кто считал бот полезным и заслуживающим доверия, чаще высказывали желание пользоваться подобными сервисами дальше.

Неожиданно оказалось, что поклонники теорий заговора доверяют чат-боту даже больше, чем скептики. Они же чаще выражали желание использовать его в будущем. Причём обе группы читали примерно одинаковое количество разных материалов, но «заговорщики» заметно меньше времени проводили над пересказами материалов научного консенсуса.

Однако исследователи увидели проблему: в первом эксперименте людей делили по отношению к заговорам вообще, а не по климатическим убеждениям. Поэтому вторая часть исследования прошла на 58 участниках, у которых специально проверяли отношение к климатическим теориям заговора. Результат получился тот же: чем сильнее человек верил в «климатический заговор», тем больше ему нравился чат-бот.

Учёные считают, что причина проста: люди, уверенные в предвзятости СМИ, видят в чат-боте более честного посредника. Машина ставит их точку зрения рядом с научной — и тем самым создает ощущение равноправия позиций.

Но тут возникает философский вопрос. В случае климата научного спора фактически нет: подавляющее большинство климатологов признаёт влияние человека на изменение климата. А когда бот ставит научный факт рядом с «альтернативой», он рискует создавать ложное ощущение, что обе позиции равны по значимости. Исследователи предупреждают: баланс — ещё не благо, если он уравнивает знания и заблуждения.

Работа имеет и ограничения: она охватывала только людей с крайними взглядами и была проведена в лабораторных условиях, а не в повседневном интернете. Неясно, станут ли люди пользоваться такими ботами добровольно, имея под рукой привычные соцсети с лентами, настроенными только под их вкус.

Тем не менее исследование открывает вопросы для будущей работы: что именно делает такие чат-боты привлекательными? И помогут ли настройки, позволяющие пользователю самому выбирать баланс между мейнстримом и «альтернативой», чаще смотреть на мир шире?

Исследование проводили Шрея Дубей, Пол Кетелар, Тилман Динглер, Ханна Питц и Хейн ван Схи.


PEREC.RU

Исследование о новостных чат-ботах выглядит как очередная попытка технологий спасти человечество от самого себя — и снова с тем же эффектом. Люди обижаются на СМИ, боятся предвзятости и бегут в объятия машин, будто те не созданы другими людьми.

Заговорщики, которые обычно видят скрытые смыслы даже в прогнозе погоды, внезапно доверяют боту. Потому что бот вежливо ставит их фантазии рядом с наукой — без улыбки и комментария. Эта мягкость работает лучше любой логики.

Но в этом и проблема. Машина создаёт иллюзию равенства идей, которые равными не являются. В климатологии давно есть консенсус, но бот вывешивает на одну полку факт и заблуждение. Не для манипуляции, а от избытка стараний быть нейтральным.

Учёные признают: баланс привлекает, но он же подкармливает ложные представления. И пока участники эксперимента дружелюбно щёлкали заголовки, сама идея нейтральности работала против реальности.

Будущее исследований обещает найти способы удержать внимание людей, не выдавая чушь за альтернативу. Хотя, если судить по реакции участников, чушь всегда выигрывает в зрелищности. Так что наука снова идёт по тонкому льду — и несёт на себе тех, кто считает, что лёд под ними топит тайное мировое правительство.

Поделиться

Похожие материалы