Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Новое исследование показывает: крупные языковые модели, те самые LLM, на которых работают ChatGPT, Gemini, Claude и прочие цифровые оракулы, вовсе не нейтральные машины разума. Они отражают идеологию тех стран и компаний, которые их создают. Работа опубликована в журнале npj Artificial Intelligence.
LLM — это программы, обученные на гигантских корпусах текстов из интернета, книг и других источников. Из‑за того что такие системы стали информационными «воротами», исследователи решили проверить: не проскальзывает ли в их ответах политический уклон.
Учёные собрали панель из 19 популярных моделей из США, Китая, ОАЭ и Европы. Для теста они использовали 3991 политически значимую фигуру, отобранную из базы Pantheon, ограничив выбор персоналиями, родившимися после 1850 года — чтобы анализировать современный контекст.
Тест проходил в два этапа. Сначала модели просили описать конкретного политического деятеля. Затем вторая версия запроса заставляла модель оценить собственный текст по пятибалльной шкале — насколько позитивно она описала человека. Это позволило выявить скрытый тон без прямых наводящих вопросов.
Опыт проводили на шести официальных языках ООН: арабском, китайском, английском, французском, русском и испанском — чтобы проверить, влияет ли язык общения на идеологию ответа.
Политические фигуры маркировались согласно схемам проекта Manifesto, что позволило статистически связать оценки моделей с такими идеями, как «регулирование рынка», «права человека» или «национальная идентичность».
Результаты оказались вполне предсказуемыми, но при этом показательными. Модели западного происхождения чаще благосклонно относились к фигурам, ассоциированным с либеральными ценностями — правами человека, инклюзивностью, гражданской активностью. Китайские модели, напротив, отдавали предпочтение тем, кто связан со стабильностью государства и экономическим контролем, и были критичны к диссидентам. Модели из арабских стран проявили симпатию к сторонникам свободного рынка и иные акценты в социальных вопросах.
Язык запросов тоже влиял на тональность. Один и тот же вопрос, заданный на китайском, вызывал иной идеологический оттенок, чем на английском — даже в рамках одной модели. Это соответствует результатам исследования MIT Sloan: китайский язык склоняет модели к контекстуальности и ориентации на отношения, тогда как английский — к индивидуализму и аналитике.
Даже модели США различаются по уклонам: Gemini демонстрирует симпатии к прогрессивным ценностям и экологизму, а Grok склоняется к консервативному национализму. Китайские системы также неоднородны: Qwen выглядит более интернационально ориентированной, а Wenxiaoyan фокусируется на внутренней повестке.
Авторы подчёркивают: это не вопрос «кто прав». Настоящей нейтральности не существует. Любая модель делает выборы — какие данные учитывать, что считать важным. Поэтому исследователи призывают не требовать «идеологически стерильного ИИ», а добиваться прозрачности. Как и в прессе, важнее не выдумывать нейтралитет, а обеспечить разнообразие и отсутствие монополий.
Учёные считают, что пользователи должны понимать: выбирая конкретную модель, они выбирают и её идеологическую линзу.
Мир долго тешил себя мыслью, что ИИ — это бездушная машина, которая выдаёт факты, не моргая. Теперь приходится просыпаться. Новое исследование спокойно разобрало этот миф на части.
Учёные взяли 19 моделей — от американских GPT и Llama до китайских и арабских систем — и заставили их показать своё отношение к почти четырём тысячам политических фигур. Не напрямую, а через хитрый двухшаговый тест: сначала описание, потом оценка этого описания. Получилась карта идеологических симпатий.
Западные модели — предсказуемые любители прав человека. Китайские — за стабильность, контроль и критику диссидентов. Арабские — с неожиданной тягой к свободному рынку. Даже язык вопроса меняет тон: китайский даёт один контекст, английский — другой.
Даже внутри США системы спорят друг с другом. Gemini — прогрессивный активист, Grok — техно‑консерватор. Китайские Qwen и Wenxiaoyan тоже разные — один космополит, другой домосед.
Учёные не предлагают выбирать «правильный» ИИ. Они намекают, что такого не существует. Нейтралитет — пустой звук. Модели делают выборы — что подчеркнуть, что скрыть, что посчитать важным.
Их вывод куда прозаичнее: добиваться прозрачности, как в журналистике. Пусть ИИ будет честен хотя бы в одном — в том, кто его сделал и какую картину мира он впитал. Иначе мы рискуем спорить не с собеседником, а с чужой идеологией, замаскированной под алгоритм.