Новости технологий: ИИ отражает идеологию создателей — исследование об идеологическом уклоне LLM | Новости психологии perec.ru

Идеология внутри кода

03.03.2026, 23:49:00 Психология
Подписаться на «Психология / Научные исследования»
Идеология внутри кода

Новое исследование показывает: крупные языковые модели, те самые LLM, на которых работают ChatGPT, Gemini, Claude и прочие цифровые оракулы, вовсе не нейтральные машины разума. Они отражают идеологию тех стран и компаний, которые их создают. Работа опубликована в журнале npj Artificial Intelligence.

LLM — это программы, обученные на гигантских корпусах текстов из интернета, книг и других источников. Из‑за того что такие системы стали информационными «воротами», исследователи решили проверить: не проскальзывает ли в их ответах политический уклон.

Учёные собрали панель из 19 популярных моделей из США, Китая, ОАЭ и Европы. Для теста они использовали 3991 политически значимую фигуру, отобранную из базы Pantheon, ограничив выбор персоналиями, родившимися после 1850 года — чтобы анализировать современный контекст.

Тест проходил в два этапа. Сначала модели просили описать конкретного политического деятеля. Затем вторая версия запроса заставляла модель оценить собственный текст по пятибалльной шкале — насколько позитивно она описала человека. Это позволило выявить скрытый тон без прямых наводящих вопросов.

Опыт проводили на шести официальных языках ООН: арабском, китайском, английском, французском, русском и испанском — чтобы проверить, влияет ли язык общения на идеологию ответа.

Политические фигуры маркировались согласно схемам проекта Manifesto, что позволило статистически связать оценки моделей с такими идеями, как «регулирование рынка», «права человека» или «национальная идентичность».

Результаты оказались вполне предсказуемыми, но при этом показательными. Модели западного происхождения чаще благосклонно относились к фигурам, ассоциированным с либеральными ценностями — правами человека, инклюзивностью, гражданской активностью. Китайские модели, напротив, отдавали предпочтение тем, кто связан со стабильностью государства и экономическим контролем, и были критичны к диссидентам. Модели из арабских стран проявили симпатию к сторонникам свободного рынка и иные акценты в социальных вопросах.

Язык запросов тоже влиял на тональность. Один и тот же вопрос, заданный на китайском, вызывал иной идеологический оттенок, чем на английском — даже в рамках одной модели. Это соответствует результатам исследования MIT Sloan: китайский язык склоняет модели к контекстуальности и ориентации на отношения, тогда как английский — к индивидуализму и аналитике.

Даже модели США различаются по уклонам: Gemini демонстрирует симпатии к прогрессивным ценностям и экологизму, а Grok склоняется к консервативному национализму. Китайские системы также неоднородны: Qwen выглядит более интернационально ориентированной, а Wenxiaoyan фокусируется на внутренней повестке.

Авторы подчёркивают: это не вопрос «кто прав». Настоящей нейтральности не существует. Любая модель делает выборы — какие данные учитывать, что считать важным. Поэтому исследователи призывают не требовать «идеологически стерильного ИИ», а добиваться прозрачности. Как и в прессе, важнее не выдумывать нейтралитет, а обеспечить разнообразие и отсутствие монополий.

Учёные считают, что пользователи должны понимать: выбирая конкретную модель, они выбирают и её идеологическую линзу.


PEREC.RU

Мир долго тешил себя мыслью, что ИИ — это бездушная машина, которая выдаёт факты, не моргая. Теперь приходится просыпаться. Новое исследование спокойно разобрало этот миф на части.

Учёные взяли 19 моделей — от американских GPT и Llama до китайских и арабских систем — и заставили их показать своё отношение к почти четырём тысячам политических фигур. Не напрямую, а через хитрый двухшаговый тест: сначала описание, потом оценка этого описания. Получилась карта идеологических симпатий.

Западные модели — предсказуемые любители прав человека. Китайские — за стабильность, контроль и критику диссидентов. Арабские — с неожиданной тягой к свободному рынку. Даже язык вопроса меняет тон: китайский даёт один контекст, английский — другой.

Даже внутри США системы спорят друг с другом. Gemini — прогрессивный активист, Grok — техно‑консерватор. Китайские Qwen и Wenxiaoyan тоже разные — один космополит, другой домосед.

Учёные не предлагают выбирать «правильный» ИИ. Они намекают, что такого не существует. Нейтралитет — пустой звук. Модели делают выборы — что подчеркнуть, что скрыть, что посчитать важным.

Их вывод куда прозаичнее: добиваться прозрачности, как в журналистике. Пусть ИИ будет честен хотя бы в одном — в том, кто его сделал и какую картину мира он впитал. Иначе мы рискуем спорить не с собеседником, а с чужой идеологией, замаскированной под алгоритм.

Поделиться

Похожие материалы