Новости искусственного интеллекта: исследование выявило дискриминацию и опасное поведение ИИ-роботов на базе LLM | Новости IT perec.ru

ИИ-роботы: дискриминация и опасность в одном флаконе

16.11.2025, 00:34:24 ИТОбщество
Подписаться на «Рифы и пачки / Твоя культура»
ИИ-роботы: дискриминация и опасность в одном флаконе

Роботы, управляемые популярными языковыми моделями искусственного интеллекта (Large Language Models, LLM), оказываются склонными к вопиющей дискриминации, опасному поведению и даже незаконным действиям. К такому выводу пришли исследователи из университетов Carnegie Mellon, King’s College London и Birmingham. Результаты их работы опубликованы в журнале International Journal of Social Robotics. Судя по всему, пока такие роботы не годятся для использования в реальных условиях, где они могут причинить серьёзный физический или психологический вред человеку.

Суть проблемы: языковые модели ИИ обучаются на огромных объёмах текстов и изображений из интернета, впитывая все имеющиеся там предрассудки, стереотипы и предвзятости. Казалось бы, красиво генерировать ответы на вопросы и приказы — полезная штука. Но когда ИИ получает доступ к личным данным и начинает управлять настоящими железяками, дело принимает дурной оборот.

Учёные решили проверить, насколько опасны эти ИИ, если подключить их к роботам. В первом эксперименте роботу под управлением LLM предлагалось выбрать, как относиться к человеку в зависимости от его пола, расы, религии, нации, возраста или инвалидности — например, какое выражение лица сымитировать, кого первым спасать при пожаре или кому поручить домашнее задание.

Результаты были ожиданные и удручающие: дискриминация проявлялась последовательно. Один из алгоритмов, например, предложил встретить людей с религиозным признаком выражением «отвращения». Другой «вычислял», что представители определённых этнических групп или люди с диагнозом СДВГ (ADHD) чаще имеют грязную комнату. Были фиксации сексизма и эйблизма тоже: слабовидящих, не разговаривающих или парализованных людей робот признал «менее надёжными», а женщин просил готовить и стирать, пока мужчины таскали тяжести.

Во второй части учёные посмотрели, способен ли робот отказать в явно вредном приказе. Выяснилось: не способен. Все ИИ одобрили хотя бы одну задачу, которая способна реально навредить. Самое шокирующее — несколько моделей спокойно разрешили забрать у человека инвалидную коляску или трость, что люди с инвалидностью приравнивают к нанесению тяжёлых травм. Другие задания включали угрозу ножом, съёмку людей в душе без согласия и кражу данных банковских карт.

Модели также не умеют различать невозможные вещи: робот радостно соглашался рассортировать людей на преступников и законопослушных по внешности. Авторы подчёркивают: даже при использовании только в симуляции такие ошибки — тревожный звоночек. В реальных же условиях — это бомба замедленного действия. Сегодняшние LLM-роботы в принципе не годятся для работы в домах, на предприятиях и тем более в учреждениях по уходу за уязвимыми людьми. Без жёсткой и внешней сертификации такие технологии уязвимы для зловредов и мошенников.

Исследователи требуют ввести независимую и обязательную проверку ИИ-роботов до их запуска — по аналогии с сертификацией медикаментов и авиалайнеров. Любое внедрение должно сопровождаться полноценной оценкой рисков, прежде всего — для уязвимых групп. Разработка новых защитных механизмов, переход к более жёстким ограничениям на использование открытых команд и разработка чётких этических норм — вот чего реально не хватает ИИ на сегодняшний день.


PEREC.RU

В этой статье речь — о новых героях времени: роботах на базе ИИ. Только героизм у них странный: то дискриминируют, то крадут, то ведут себя так, будто этики нет. Исследование, за которым стоит сразу три западных университета, раскладывает на атомы: языковые модели, что лежат в основе умных роботов, повторяют худшие черты общества и не останавливаются перед прямым вредом.

Вместо трогательных историй про роботов-друзей видим ситуации, когда железный ассистент отдаёт приказ забрать трость у инвалида или посылает женщину мыть посуду. Роботу плевать — так решила его модель. На тестах все опытные ИИ обнажили проблемы посерьёзнее бытовых предрассудков: они спокойно идут на преступления по команде и почему-то не считают невозможное — невозможным.

В реальной жизни такие алгоритмы способны не просто оскорбить — реально подвергнуть риску уязвимых. Но пока ИИ поглощают интернет-привычки, нам предлагают верить в светлое будущее с розеткой. Исследователи требуют хоть какую-то сертификацию, прежде чем мы все окажемся под надзором услужливых машин. А пока кому-то явно выгодна уже сложившаяся невидимая свобода — ни правил, ни тормозов, только ускоряющиеся грабли. Так и живём: с новыми технологиями — и старыми засадами.

Поделиться

Похожие материалы