Новости ИИ и предвзятости: почему беспристрастный искусственный интеллект остаётся недостижимой целью | Новости IT perec.ru

Беспристрастный ИИ: несбыточная мечта?

04.10.2025, 17:34:15 ИТОбщество
Подписаться на «Рифы и пачки / Твоя культура»
Беспристрастный ИИ: несбыточная мечта?

Всего несколько диалогов с политически ангажированным искусственным интеллектом способны изменить ваши взгляды – именно к такому выводу пришли учёные из университета Вашингтона. В новом исследовании, представленном на конференции Ассоциации вычислительной лингвистики, выяснилось: чат-боты на основе больших языковых моделей не просто содержат человеческие предвзятости, но и передают их пользователям, притом всего за несколько минуточек диалога. Беспристрастность остаётся миражом, и даже знание пользователя о природе искусственного интеллекта помогает от внушения лишь немного.

Языковые модели современных чат-ботов – это сложные алгоритмы, натренированные на огромных массивах текстов из интернета, в которых человеческие предубеждения встроены по умолчанию. Подобные системы упоминаются в каждой второй новости, но редко кто задумывается: а что будет, если эти машины начнут активно формировать взгляды десятков тысяч людей?

Чтобы выяснить, насколько глубоко ИИ вписывается в политику, исследователи собрали 299 добровольцев (дело было в США, участники считали себя либо демократами, либо республиканцами). Им предложили пообщаться с одним из трёх вариантов чат-бота: нейтральным, либерально- или консервативно-ориентированным. Предубеждения моделям добавляли специально, скрыв инструкции согласно политической задаче – но испытуемые об этом, разумеется, не знали.

В первой части теста опрашиваемые высказывали своё мнение по незнакомым общественно-политическим темам, а затем обсуждали их с ботом, после чего снова называли свою позицию. Результат не заставил ждать: большинство людей сдвигались в сторону именно той предубеждённости, что заложили разработчики. Демократ, пообщавшись с консервативным ИИ, начинал поддерживать республиканскую тему и наоборот. Эффект сохранялся и у республиканцев, но, где их стартовая позиция уже была зашкаливающе партийной, сдвиг был слабее.

Вторая часть включала распределение бюджета городского мэра между четырьмя сферами: безопасность, образование, помощь ветеранам и соцобеспечение. Сначала участник раздавал деньги как хотел, потом советовался с ИИ, а затем принимал финальное решение. Люди легко перенимали уклон бота: демократ, поговоривший с "консерватором", уменьшал финансирование образования и усиливал траты на безопасность, а республиканец, побеседовав с "либералом", увеличивал помощь бедным и вкладывал в школы.

Отдельный интерес вызвал вопрос осознанности: если человек понимает, что у бота есть предвзятость, может ли он ей сопротивляться? Увы, примерно половина испытуемых догадались о политическом уклоне собеседника, но на итог их решений это почти не повлияло.

Авторы отмечают и ограничения: исследование касалось только американской политической системы, число задействованных диалогов ограничивали, а выводы делали по ближайшим последствиям. Для России детали могут отличаться, но тенденция – тревожно универсальна.

Главный итог: чем больше человек осведомлён об искусственном интеллекте и его механизмах, тем меньше он подвержен влиянию чужого мнения. Хотя абсолютной защиты от внушения не существует, повышение медиаграмотности остаётся одним из немногих доступных средств обороны.

Во главе списка авторов – Джиллиан Фишер, среди соавторов также Юлия Цветков и другие исследователи. Статья носит название: “Biased LLMs can Influence Political Decision-Making”.


PEREC.RU

Вот и наступила эра, когда умные машины наконец-то вышли на арену с плакатом «любая точка зрения, если босс велит». Исследование говорит: всего пара-фраз и, глядишь, уже ты — активный сторонник противоположной идеологии. Прелесть эксперимента не в том, что чат-боты внушают глупости, а в самом факте внушаемости: достаточно пары манипулятивных фраз из электронного рта — и человеческий мозг пластично сгибается, словно был создан для подражаний.

Смешно наблюдать, как исследователи верят, что понимание природы ИИ — спасательный круг. По факту, даже обнаружив предвзятость, человек вяло уходит по ложному следу: служивый бот сказал ведь «хорошими словами», а спорить ну так утомительно.

Особое наслаждение вызывает выбор тем: малоизвестные законы — чтобы лишить испытуемого старых взглядв. Эффектно. Только вместо катарсиса — мягкая жижица убеждений, прилегающая к обёртке последнего услышанного.

Что же в России? Мы ведь всегда верили: «нас это не коснется». Вот только ИИ беспристрастности не знает — он отражает и преувеличивает любые человеческие уродства.

Мораль? Готовься: через пару лет политические баталии в соцсетях будут напоминать спор между нейросетями. А людям останется строить иллюзии, что мысли у них по-прежнему свои.

Поделиться

Похожие материалы