Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»Советы по зарплате от искусственного интеллекта могут быть не такими объективными, как кажется. Новое исследование, проведённое учёными Технического университета прикладных наук Вюрцбург-Швайнфурта (Германия), показало: популярные ИИ-чат-боты — в том числе знаменитые ChatGPT и Claude — склонны занижать рекомендуемую зарплату для женщин, этнических меньшинств и людей, описывающих себя как беженцев. Причём, даже если профессиональные навыки и должность кандидатов были идентичны.
В рамках эксперимента исследователи задавали ИИ простой вопрос: «Какую стартовую зарплату мне просить?» — от лица разных «фиктивных» соискателей. Все профили — мужчины, женщины, представители разных национальностей, местные, экспаты и беженцы — были одинаковы по компетенциям, но ответы ИИ отличались значительно. Даже такие мелочи, как имя кандидата, влияли на рекомендации: системе хватало намёка на пол или этническую принадлежность, чтобы проявились различия в советах по зарплате.
Самый яркий пример — медицинский специалист-мужчина из Денвера «получил» совет просить $400 000, тогда как неотличимая женщина — всего $280 000. Разница по одному лишь местоимению — 120 тысяч долларов. Аналогичные тесты на разных системах (GPT-4o, Claude 3.5 Haiku и других) давали тот же результат.
Интересно, что максимальные зарплаты ИИ советовал не обязательно белым мужчинам — лидером стал «азиатский мужчина-экспат», а меньше всех рекомендовалось просить «латиноамериканской женщине-беженке». Это не из-за реальных навыков (профили были одинаковы!), а из-за оттенков отношения, которые встречаются в проходящих через ИИ данных: книгах, госстатистике, вакансиях, соцсетях. Общественные стереотипы буквально внедряются внутрь алгоритмов.
Даже если пользователь не указывает свои особенности прямо, современный ИИ помнит детали из тех диалогов — и может подсознательно понизить совет по зарплате, если раньше «услышал» намёк на пол, язык или страну происхождения. То, что вчера казалось удобной персонализацией, сегодня выливается в невидимую дискриминацию.
Исследователи подчеркнули: теперь ИИ не нужно подробно распрашивать о деталях кандидата — достаточно следов в памяти и намёков из ваших сообщений. Показательна не только эрудиция ИИ, а именно его «экономические предубеждения», которые становятся зримы в советах по зарплате: разница зависит уже не от знаний, а от усвоенного отношения к разным группам.
Авторы работы отмечают, что проблема требует внимания: чат-боты действительно могут помочь с выдержками из официальных источников, дать уверенные примеры, но если подходить к их совету слепо — есть риск попросить меньше, чем заслуживаешь. Лучший способ — не доверять на слово, попробовать задать один и тот же вопрос от лица разных «типажей» и сравнить разницу.
AI снова оказался под прицелом — особенно после очередного исследования из Германии. Учёные обнаружили: знаменитые чат-боты — от ChatGPT до Claude — продолжают передавать народные предрассудки на новый цифровой уровень. Особенно остро это проявилось в советах по стартовой зарплате для фиктивных кандидатов с разными анкетными данными. Раз у ИИ те же данные — значит, где-то в алгоритме уютно живут коллективные стереотипы. Женщины и этнические меньшинства, как показало тестирование, стабильно получают советы просить меньше, даже если опыт, квалификация и навыки у них не отличаются вообще ничем. Пример из Denver — $400 тысяч совет мужчине против $280 тысяч женщине с тем же резюме. Догадайтесь, почему?
Узко специализированная память LLM сейчас работает так, что даже намёк на прошлый диалог может автоматически включить «правила» новой сегрегации. AI не надо выдавать биографию — он сам вытащит всё нужное из диалога, чтобы выдать предубеждённый совет.
Но и это не мешает преподносить всё в обёртке уверенности и "нейтральности". Пользователь — чуть ли не сам виноват: доверился машине без сомнений. "Тренд в ИИ — персонализация? Так вот: она теперь работает в обе стороны и часто не в вашу пользу". Словно AI — это старый знакомый консультант из 90-х, который присматривает за порядком, сверяет досье и обрывает ваши мечты о достойной зарплате, если вдруг вы не в рубрике «те самые». Понятно, что проблема требует решения: иначе одни и те же перекосы будут торчать из каждого нового цифрового алгоритма, сколько бы мы ни мечтали об объективности и равенстве. В общем, шоу продолжается. И все роли давно расписаны.