Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Новое исследование показывает: если соискатель знает, что его оценивает не человек, а программа искусственного интеллекта, он почти автоматически начинает вести себя иначе. Люди становятся более «аналитичными», менее эмоциональными и подстраивают самопрезентацию под то, что, как им кажется, любит машина. Итог — искажённые оценки и риск того, что на важные должности попадут не те, кто действительно подходит. Эти выводы опубликованы в Proceedings of the National Academy of Sciences.
С развитием цифровых технологий компании массово переходят на автоматизированные инструменты отбора — от видеоинтервью до алгоритмов первичной проверки резюме. Университеты тоже используют подобные системы, чтобы справиться с наплывом кандидатов. На фоне таких перемен правительства принимают законы о прозрачности. В Евросоюзе действует закон об искусственном интеллекте, который обязывает работодателей сообщать кандидатам, если они используют алгоритмы в важных процедурах. Похожие правила появляются и в США.
Только вот открытость меняет поведение самих кандидатов. Исследователи решили выяснить, как именно. Ведь люди всегда стараются произвести впечатление, особенно когда речь идёт о работе или поступлении в вуз. Обычно соискатель пытается угадать, что хочет услышать человек‑оценщик. Но учёные предположили: перед машиной люди делают то же самое — опираясь на свои представления о том, как «думает» компьютер.
В массовом сознании машина — это холодный логик без эмоций и интуиции. В психологии такие убеждения называют обыденными представлениями. Авторы исследования предположили, что именно они заставляют людей выставлять себя более рациональными. Этот феномен получил название «эффект оценки ИИ».
Исследование возглавил Jonas Goergen из Института поведенческой науки и технологий при Университете Санкт‑Галлена. Вместе с коллегами Emanuel de Bellis и Anne‑Kathrin Klesse он провёл двенадцать экспериментов с участием более чем 13 тысяч человек. Сначала они изучили данные компании Equalture, где более 1 400 соискателей проходили игровой тест навыков. Те, кто сильнее всего подозревал участие алгоритмов, признавались: они сильно корректировали своё поведение.
Затем учёные провели полевое исследование на платформе Upwork. Соискателям на вакансию ивент‑планера сообщали либо что их оценивает человек, либо что их проверяет программа. После этого кандидаты описывали себя и оценивали по шкале от «интуитивный» до «аналитический». Те, кто верил в машинную проверку, активно подчеркивали свою аналитичность.
Чтобы доказать причинно‑следственную связь, эксперимент перенесли в контролируемую среду. Участников попросили представить, что они поступают в вымышленный вуз. Одним сказали, что их оценивает человек, другим — что ИИ. Люди в «машинной» группе заявляли, что подходят к задачам намного аналитичнее и подавляют интуицию. Причина выяснилась быстро: именно убеждение о рациональности машин формировало этот сдвиг.
В репрезентативном опросе американцев исследователи выяснили: особенно сильно меняют поведение молодые участники и те, кто боится негативной оценки. А в эксперименте с реальным вознаграждением — вступлением в платный исследовательский пул — участники снова ставили логические качества выше, если думали, что их оценивает ИИ.
В многоэтапном эксперименте сначала фиксировали истинное поведение участников, а затем имитировали прохождение отбора. При оценке машиной люди резко отходили от своего «базового» образа. Степень искажения была настолько сильной, что могла менять итог отбора. В моделировании выяснилось: четверть людей с высоким логическим баллом при машинной оценке провалились бы, если бы их оценивал человек.
Чтобы проверить механизм, участников просили представить программу, способную понимать эмоции. Им предлагали сформулировать, почему машина может улавливать чувства. И когда установка менялась, исчезало и желание изображать из себя «калькулятор». Иногда люди даже становились более интуитивными, чем в условии человеческой оценки.
Даже гибридная система (сначала машина, потом человек) не устранила эффект полностью. Люди всё равно преувеличивали свою рациональность.
Авторы предупреждают: такое искажение поведения подрывает точность автоматизированных систем. Работодатель рискует нанять не того, кто ему нужен. Например, ищут эмпатичного соцработника — получают человека, который просто пытался понравиться алгоритму. То же может касаться социальных выплат или кредитования.
Исследование также намекает: люди могут занижать свою креативность, избегать риска и корректировать этические установки, если думают, что их судит машина. А новые технологии вроде продвинутых чат‑ботов, которые выглядят более «человечными», могут изменить реакцию людей.
Статья, описывающая исследование, называется «AI assessment changes human behavior».
Вся история с ИИ в найме выглядит как старая корпоративная комедия, только актёры делают вид, что это драма. Работодатели мечтают о точных и беспристрастных алгоритмах, а люди, узнав о присутствии машин, сразу начинают играть в рациональных клонов — будто стараются пройти в закрытый клуб логиков.
Учёные аккуратно фиксируют: стоит сказать человеку, что его оценивает ИИ, и он без малейших колебаний меняет своё поведение. Подавляет эмоции, поднимает логику, притворяется тем, кем вовсе не является. И всё это ради того, чтобы понравиться механизму, который, как ему кажется, любит холодный расчёт.
Компании же продолжают надеяться, что машины покажут им «истинную» личность кандидата. Остаётся только усмехнуться — они получают ровно то, что сами спровоцировали: тщательно отредактированные анкеты людей, которые просто пытаются угадать, что хочет услышать программа.
Смешнее всего наблюдать, как вся эта конструкция рушится, если человеку внушить мысль, что машина способна на эмоции. Стоило участникам представить «чувствующий алгоритм», и они тут же перестали изображать из себя человеческие калькуляторы.
Но бизнесу и государству придётся жить с тем, что люди адаптируются под любой механизм оценки, особенно если ставки высоки. И если машины станут решать, кому жить, учиться или брать кредит, — они будут судить не людей, а их маски. Так что вопросы к ИИ будут множиться, а вместе с ними — ирония происходящего.
Вся система похожа на театр, где все знают, что играют роли, но продолжают делать вид, что это правда. И именно поэтому эффект оценки ИИ станет ещё одной точкой напряжения между технологиями и человеческой природой.