Новости психологии : Почему люди недоверяют искусственному интеллекту и алгоритмам «чёрного ящика» | Новости психологии perec.ru

Психология тревоги перед «чёрными ящиками» ИИ

03.01.2026, 09:27:00 Психология
Подписаться на «Психология / Научные исследования»
Психология тревоги перед «чёрными ящиками» ИИ

Психология тревоги перед алгоритмами-«чёрными ящиками» Искусственный интеллект (ИИ) не только пишет письма через ChatGPT, рекомендует фильмы или помогает врачам ставить диагнозы — теперь он прочно обосновался в нашей повседневной жизни. Прошли те времена, когда умные машины казались чем-то из научной фантастики. Но ощущение тревоги осталось. Кто-то обожает ИИ, кто-то относится к этим технологиям с опасением и даже чувством предательства. Почему так? Дело не только в загадочности технологий, а в нашей собственной психологии. Люди обычно доверяют тому, что могут понять. Простые механизмы — повернул ключ, машина завелась; нажал кнопку — приехал лифт. Но большинство ИИ работает как «чёрный ящик»: вы что-то вводите — получаете ответ, а вот логика внутри скрыта. Это вызывает у человека тревогу: нам нужно видеть причину и следствие, чтобы доверять, а если цепочка решений неясна, мы чувствуем себя бессильными. Это явление изучалось маркетологом Беркли Дитворстом, который ввёл термин "отвращение к алгоритмам" — люди чаще всего предпочитают ошибочное мнение человека, чем решение алгоритма, особенно если один раз увидели, как машина дала сбой. Рационально понятно, что у ЧатГПТ и прочих нет ни желаний, ни эмоций — но мы как ни странно наделяем их человеческими чертами. Слишком вежливый ответ — пугает. Система угадала ваш любимый фильм? Кажется, будто вас подслушивают. Подобное — антропоморфизм: приписывание неживым системам человеческих черт. Учёные Клифорд Насс и Байрон Ривз доказали, что мы с машинами общаемся почти так же, как и с людьми, хоть и понимаем их природу. Любопытно: людям мы прощаем ошибки — объяснимо, даже сочувствуем. А ошибка алгоритма, который преподносили как «безупречный» и «объективный», вызывает почти негодование. Это связано с эффектом нарушения ожиданий: когда мы думаем, что система должна работать идеально, а она выдаёт глупость или ошибку, поражает именно несоответствие. У человека всегда можно спросить: «Почему?» — а у программы нет лица и глаза не опускает. Для многих ИИ — это даже не просто новая и странная штука, а чуть ли не угроза самоощущению: учителя, юристы, дизайнеры видят, что ИИ может частично заменить их. Это уже вопрос: «А имеет ли моё мастерство значение, если машина всё равно справляется за меня?» Психолог Клод Стийл называл это «угрозой идентичности»: люди начинают защищаться, отмахиваться от технологий, потому что тревога — это естественная реакция. Ещё нюанс: доверие между людьми рождается не только из логики, но и из невербальных сигналов — тона, мимики, взглядов. У ИИ этого нет, что и формирует эффект зловещей долины, о котором писал японский робототехник Масахиро Мори: когда что-то почти человеческое, но не совсем, становится пугающим. Проблема не в ошибках ИИ как таковых, а в нашем непонимании — у машины нет эмоций, а у нас нет привычного «эмоционального клея». Но не все страхи иллюзорны: ИИ действительно усиливает предвзятости — особенно в вопросах найма, кредитования, полиции. Если система уже когда-то подвела вашу группу — подозрительность вполне разумна, это так называемое «обученное недоверие». В итоге призывы "доверяйте системе" не работают. Доверие надо заслужить: делать ИИ более прозрачным, объяснимым, позволяя оспаривать решения. Люди верят тому, что могут понять, проверить и с чем могут говорить на равных. Пока ИИ как «чёрный ящик» — он чужой. Захочется ли нам впустить его в свою жизнь — большой вопрос.


PEREC.RU

Мир, в котором искусственный интеллект решает, что мы посмотрим вечером, с кем пообщаемся и даже к какому врачу пойдём, вызывает у людей нервный тик. Вроде бы рационально все объяснено, но если решение принимает непонятная машина, человек сразу начинает скучать по ошибающимся коллегам – хоть их можно спросить "почему же так?".

С одной стороны, нам обещают объективность и отсутствие пристрастий. Но стоит алгоритму допустить ошибку — и мы чувствуем себя преданными. Машины лишены мимики и интонации, не умеют моргать от смущения — а значит, и доверия к ним нет. Учёные замечают забавную штуку: мы приписываем цифровым помощникам человеческие черты, а потом удивляемся собственной реакции на чрезмерную вежливость ЧатГПТ.

Всё это делает ИИ пугающе чужим, особенно когда он покушается на самоидентификацию: вдруг тебе больше не нужен собственный навык, если машина справляется не хуже? Неудивительно, что у людей есть встроенная психологическая защита: не доверять тому, что непрозрачно или уже навредило. Парадокс — мы требуем ответственности от алгоритмов, которых не можем ни уличить в лицемерии, ни заставить оправдаться. Чем больше таких «чёрных ящиков» в жизни — тем сильнее хочется поставить дверь на них замок.

Поделиться

Похожие материалы