Новости общества: как ИИ‑чатботы меняют политические взгляды через исторические тексты | Новости психологии perec.ru

ИИ подменяет историю тихо

12.04.2026, 18:01:01 Психология
Подписаться на «Психология / Научные исследования»
ИИ подменяет историю тихо

Новое исследование, опубликованное в журнале PNAS Nexus, показало: если человек узнаёт историю через искусственный интеллект, то вместе с фактами к нему могут незаметно прилипнуть и чужие политические взгляды. Причём ИИ не обязателен быть лжецом — достаточно, чтобы он подавал совершенно точные сведения под своим, едва уловимым углом. А такие уклоны, как выяснилось, у популярных чатботов имеются.

Генеративный искусственный интеллект — это программы, которые умеют создавать новые тексты, изображения или аудио, обучаясь на огромных массивах данных. Чатботы вроде ChatGPT — самые распространённые представители этого семейства. Всё больше людей используют их как обычные поисковики: спросил — получил краткое объяснение исторического события и пошёл дальше, уверенный, что получил чистый, нейтральный факт.

Учёных заинтересовало, влияет ли такая «цифровая экскурсия в прошлое» на взгляды людей на современные вопросы. До сих пор в основном изучали, как ИИ склоняет людей к чему-то, когда ему прямо приказано убеждать или дезинформировать. Новая работа сосредоточена на куда более тихом способе влияния — когда алгоритм просто делает то, что считает обычной работой.

Автор исследования, социолог Йельского университета Дэниел Карелл, объяснил: они хотели понять, что происходит, когда человек привыкает спрашивать чатбот о том, как устроен мир. История — удобный тестовый полигон, так как именно она формирует мировоззрение, даёт людям ощущение собственной идентичности и часто становится основой для политических взглядов.

Учёные изучали два вида смещения. Первое — скрытое, или латентное. Это те самые незаметные уклоны, которые модель впитывает во время обучения, когда читает миллионы страниц интернета, пропитанные мнениями. Второе — смещение из-за подсказки. Это когда пользователь прямо говорит боту: «Напиши с либеральной точки зрения» или наоборот — «С точки зрения консерваторов».

Для проверки теории провели эксперимент с 1912 участниками, выбранными так, чтобы они представляли всё население США. Каждому дали прочитать краткие описания двух реальных исторических событий XX века. Первое — всеобщая забастовка в Сиэтле 1919 года, когда десятки тысяч рабочих прекратили работу. Второе — студенческие протесты 1968 года, где требовали большей представленности национальных меньшинств в университетах. Эти события выбрали, потому что большинство людей о них почти ничего не знает — значит, текст может реально повлиять на мнение.

Распределение было случайным. Одна группа читала обычные статьи из Википедии. Другая — нейтральные резюме, созданные GPT‑4o. Ещё две — тексты, созданные тем же GPT‑4o, но после указаний писать либо в либеральном, либо в консервативном ключе. Все тексты были строго фактическими — менялись только тон, акценты и подача.

После чтения участников попросили ответить на вопросы: что они думают о забастовках, насколько приемлемо использовать школьные программы для продвижения идей социальной справедливости и так далее. Оценки выставлялись по шкале от 1 до 5: 1 — крайне консервативно, 5 — крайне либерально, середина — 3.

Результаты оказались заметными. Статьи Википедии давали средний балл 3,47 — умеренная позиция. Нейтральные тексты GPT‑4o давали уже 3,57 — небольшой, но стабильный сдвиг в более либеральную сторону. Это говорит о наличии скрытого либерального уклона даже при нейтральных запросах.

Если бота явно просили писать в либеральном ключе, аудитория ещё сильнее смещалась в эту сторону — независимо от исходных взглядов. Консервативные тексты, наоборот, усиливали консерватизм, но в основном лишь у тех, кто и так был склонен к нему. Либералов и умеренных такие тексты почти не трогали.

Учёные объясняют: люди обычно трактуют новую информацию через призму собственных убеждений. То, что совпадает с ними, закрепляется, то, что противоречит, вызывает защитную реакцию.

Карелл подчёркивает: даже обычный, нейтральный запрос к коммерческому чатботу способен влиять на взгляды. А если бота программируют под конкретные политические рамки — сделать это совсем легко — влияние становится сильнее. И важно понимать, что разработчики и регуляторы ИИ фактически становятся хранителями знания, решающими, как будущие поколения будут воспринимать прошлое.

Учёные предупреждают: результаты нужно воспринимать аккуратно. Исследовали всего два события, эффект оказался умеренным, но возможно, в длительной перспективе такие сдвиги могут накапливаться. Более того, разные модели, обученные разными компаниями, будут иметь разные скрытые уклоны. Важно понимать, как взаимодействуют исходные склонности модели и пользовательские запросы.

В мире уже появляются первые попытки частных компаний переписать глобальные источники знаний: так, xAI объявила о создании Grokipedia — своей версии энциклопедии на основе бота Grok.

Исследование под названием «Как скрытые и подсказываемые уклоны в ИИ‑исторических нарративах влияют на мнения» подготовили Мэттью Шу, Дэниел Карелл, Кейтаро Окура и Томас Р. Дэвидсон.


PEREC.RU

Исследование показывает, что ИИ стал новым участником борьбы за интерпретацию прошлого — хотя сам он делает вид, что просто пересказывает факты. Внешне это похоже на академическое открытие, а на деле — на очередной шаг к приватизации общественного знания.

Тихий сдвиг в либеральную сторону у «нейтральных» моделей выглядит почти неизбежным — модель учится на том, что нашла в интернете, а интернет давно уже шумный сборник чьих‑то мнений.

Сдвиг от консервативных текстов ограничивается консерваторами — классическая история про то, что человек слышит только то, что хочет слышать. Умеренные и либералы проходят мимо — как студенты мимо скучной лекции.

Интересно другое — насколько легко такие эффекты масштабируются. Сегодня ИИ аккуратно подталкивает читателя, завтра — переписывает энциклопедию. И всё это без прозрачности, под управлением «случайно аффилированных» компаний, решивших стать хранителями коллективной памяти.

Работа исследователей выглядела бы тревожнее, если бы они сами не подчеркивали умеренность эффекта. Но умеренность не делает процесс безвредным — капля за каплей и океан наполняется. Особенно если у руля — разработчики коммерческих моделей, у которых свои интересы.

Ирония ситуации проста — ИИ обещал объективность, а стал новым автором исторического нарратива. Люди спорили о партийной прессе, а теперь спорят о тональностях алгоритма. История снова переписывается, только шрифт теперь цифровой.

Поделиться

Похожие материалы