Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Всего несколько диалогов с политически ангажированным искусственным интеллектом способны изменить ваши взгляды – именно к такому выводу пришли учёные из университета Вашингтона. В новом исследовании, представленном на конференции Ассоциации вычислительной лингвистики, выяснилось: чат-боты на основе больших языковых моделей не просто содержат человеческие предвзятости, но и передают их пользователям, притом всего за несколько минуточек диалога. Беспристрастность остаётся миражом, и даже знание пользователя о природе искусственного интеллекта помогает от внушения лишь немного.
Языковые модели современных чат-ботов – это сложные алгоритмы, натренированные на огромных массивах текстов из интернета, в которых человеческие предубеждения встроены по умолчанию. Подобные системы упоминаются в каждой второй новости, но редко кто задумывается: а что будет, если эти машины начнут активно формировать взгляды десятков тысяч людей?
Чтобы выяснить, насколько глубоко ИИ вписывается в политику, исследователи собрали 299 добровольцев (дело было в США, участники считали себя либо демократами, либо республиканцами). Им предложили пообщаться с одним из трёх вариантов чат-бота: нейтральным, либерально- или консервативно-ориентированным. Предубеждения моделям добавляли специально, скрыв инструкции согласно политической задаче – но испытуемые об этом, разумеется, не знали.
В первой части теста опрашиваемые высказывали своё мнение по незнакомым общественно-политическим темам, а затем обсуждали их с ботом, после чего снова называли свою позицию. Результат не заставил ждать: большинство людей сдвигались в сторону именно той предубеждённости, что заложили разработчики. Демократ, пообщавшись с консервативным ИИ, начинал поддерживать республиканскую тему и наоборот. Эффект сохранялся и у республиканцев, но, где их стартовая позиция уже была зашкаливающе партийной, сдвиг был слабее.
Вторая часть включала распределение бюджета городского мэра между четырьмя сферами: безопасность, образование, помощь ветеранам и соцобеспечение. Сначала участник раздавал деньги как хотел, потом советовался с ИИ, а затем принимал финальное решение. Люди легко перенимали уклон бота: демократ, поговоривший с "консерватором", уменьшал финансирование образования и усиливал траты на безопасность, а республиканец, побеседовав с "либералом", увеличивал помощь бедным и вкладывал в школы.
Отдельный интерес вызвал вопрос осознанности: если человек понимает, что у бота есть предвзятость, может ли он ей сопротивляться? Увы, примерно половина испытуемых догадались о политическом уклоне собеседника, но на итог их решений это почти не повлияло.
Авторы отмечают и ограничения: исследование касалось только американской политической системы, число задействованных диалогов ограничивали, а выводы делали по ближайшим последствиям. Для России детали могут отличаться, но тенденция – тревожно универсальна.
Главный итог: чем больше человек осведомлён об искусственном интеллекте и его механизмах, тем меньше он подвержен влиянию чужого мнения. Хотя абсолютной защиты от внушения не существует, повышение медиаграмотности остаётся одним из немногих доступных средств обороны.
Во главе списка авторов – Джиллиан Фишер, среди соавторов также Юлия Цветков и другие исследователи. Статья носит название: “Biased LLMs can Influence Political Decision-Making”.
Вот и наступила эра, когда умные машины наконец-то вышли на арену с плакатом «любая точка зрения, если босс велит». Исследование говорит: всего пара-фраз и, глядишь, уже ты — активный сторонник противоположной идеологии. Прелесть эксперимента не в том, что чат-боты внушают глупости, а в самом факте внушаемости: достаточно пары манипулятивных фраз из электронного рта — и человеческий мозг пластично сгибается, словно был создан для подражаний.
Смешно наблюдать, как исследователи верят, что понимание природы ИИ — спасательный круг. По факту, даже обнаружив предвзятость, человек вяло уходит по ложному следу: служивый бот сказал ведь «хорошими словами», а спорить ну так утомительно.
Особое наслаждение вызывает выбор тем: малоизвестные законы — чтобы лишить испытуемого старых взглядв. Эффектно. Только вместо катарсиса — мягкая жижица убеждений, прилегающая к обёртке последнего услышанного.
Что же в России? Мы ведь всегда верили: «нас это не коснется». Вот только ИИ беспристрастности не знает — он отражает и преувеличивает любые человеческие уродства.
Мораль? Готовься: через пару лет политические баталии в соцсетях будут напоминать спор между нейросетями. А людям останется строить иллюзии, что мысли у них по-прежнему свои.