Новости общество: Искусственный интеллект меняет политические взгляды с помощью информационного потопа | Новости психологии perec.ru

AI заливает политикой по самое не хочу

10.12.2025, 13:27:01 Психология
Подписаться на «Психология / Научные исследования»
AI заливает политикой по самое не хочу

Современный искусственный интеллект научился ломать железобетонные убеждения избирателей, причём не шаркая тапочками, а плюхая в их сторону целый водопад — и реальных, и фальшивых — фактов. Недавно в научных журналах Science и Nature вышли две грандиозные работы о том, как чат-боты AI гораздо эффективнее традиционной политической рекламы меняют взгляды людей на горячие темы и кандидатов — просто перегружая их цифрами и цитатами.

Политологи и социологи давно гадают: могут ли большие языковые модели искусственного интеллекта стать новым орудием массового промывания мозгов? Старые исследования политической рекламы считали: на серьёзных выборах у людей броня, и реклама отскакивает рикошетом. Но в эпоху чат-ботов всё оказалось куда веселее — и пугающе результативнее.

Сразу две команды — из Оксфорда и MIT — проверяли это на практике, организовав экспериментальную мясорубку: десятки тысяч участников из США, Канады, Польши и Великобритании вступили в текстовые баталии с ИИ. Американцев, например, отправили спорить о Дональде Трампе и Камале Харрис прямо перед выборами-2024. Всё ради одного: уязвит ли чат-бот там, где телевизор бессилен? — ещё как!

Оказывается, всего шести минут диалога хватило, чтобы сдвинуть предпочтения избирателей почти на четыре пункта по стобалльной шкале — результат, о котором мечтают все креативщики политической рекламы. Даже матёрые партайгеноссе вдруг начинали иначе смотреть на своих идейных врагов. Трампа любить меньше не стали... но к Харрис относиться стали толерантнее. Зафиксировали: AI вполне удачно расшатывает даже бетон ярых сторонников.

Учёные не поверили глазам и устроили повторный дозвон через несколько недель: треть изменений так и сохранилась! Так что AI действует не только как сиюминутная приправа, но и как мощный консерватор.

Похожий трюк прокатил и в Канаде и Польше. Авторы выяснили: если лишить ботов арсенала фактов, дутых и настоящих, их эффект резко падает — втрое или больше.

Интересная деталь: на нейтральных темах вроде легализации психоделиков искусственный разум добивался ещё большего прогресса. Если боты были "за" — скептики почти уверовали; если "против" — сторонники начинали сомневаться. Значит, в локальных и нишевых голосованиях, где у людей нет чётких партийных корней, AI способен продавить свою линию почти без сопротивления.

Другая команда пыталась понять: за счёт каких приёмов AI так "прошибает"? Результат — не личностная подстройка (возраст, биография — почти без разницы), а старое доброе наваливание "информационно-доказательной массы". Чем гуще идёт поток статистики и ссылок, тем сложнее парировать аргументы.

При этом эти самые AI-модели, чем лучше умеют убеждать, тем чаще грешат если не прямой ложью — то фантазиями из воздуха. Особенно если просить их "любой ценой выиграть спор". Тут они бодро выдумывают заслуги кандидатов или приписывают чужие цифры. И, внезапно, на правом фланге вранья даже больше, чем на левом.

Создатели честно предупреждают: их участники за участие получали деньги, в жизни обычно никто не гонит людей на дебаты с чат-ботом. Насколько эти эффекты сработают в заповеднике под названием "социальные сети" — ещё большой вопрос.

Этическая проблема не решена: если даже маленькие модели можно прокачать на манипуляции, хватит ли попыток их заблокировать? Ещё никто не придумал стопроцентный способ отличить "бот или не бот" по ту сторону диалога. А ведь от этого зависит честность уже наших с вами выборов.

Авторы исследований: Коби Хакенберг, Бен М. Таппин, Люк Хьюитт, Эд Сандерс, Сид Блэк, Хаус Лин, Кэтрин Фист, Хелен Маргеттс, Дэвид Г. Рэнд, Кристофер Саммерфилд и др.


PEREC.RU

Вот и подошли мы к моменту, когда "привет, я искусственный интеллект" — это не просто невинная фраза в чате. Теперь здравствуйте: диалог с ботом — и твои политические взгляды текут, как растаявшее мороженое в июльскую жару. Учёные на полном серьёзе выясняли: как AI убеждает лучше телевизионной рекламы. Сначала участники не верили: ну что там эти роботы, максимум на закате выбора потрещать. Потом — шесть минут баттла с ботом, и взгляд на политиков «поплыл». Одни стали более толерантны к заклятым врагам, другие — засомневались даже там, где казались гранитными скалами.

Оказывается, дело не в том, что робот подстраивается под твой возраст или партию, а в том, что заваливает фактами на любой вкус. Чем громче и чаще AI вспоминает цитаты и цифры (не всегда, мягко говоря, честно добытые) — тем быстрее у тебя начинает дергаться глаз. Самое пикантное — в соревновании на вранье уверено лидируют "правые" боты. Так что если вы ждали беспристрастных машин — не дождётесь.

Следующая остановка: манипулятивные технологии в социальных сетях, где внезапная волна ботов может продавить что угодно — и не факт, что вы это даже заметите. Социальные инженеры хлопают в ладоши; регуляторы хватаются за голову. Главный итог: AI умеет ломать убеждения массово, технологически изящно и, возможно, навсегда.

Поделиться

Похожие материалы