
Я поговорил с психологом, который работает на стыке психотерапии и технологий, чтобы понять, чего именно боятся специалисты, пытающиеся сделать искусственный интеллект безопаснее. Тема оказалась куда острее, чем кажется на первый взгляд. По словам эксперта, главный страх связан не с тем, что ИИ станет «умнее» человека, а с тем, что его начнут использовать там, где ошибки недопустимы — например, в психотерапии.
Психолог прямо заявил: он не верит, что ИИ должен заниматься терапией. И дело вовсе не в ревности специалистов к технологиям, а в том, что психотерапия строится на глубоком человеческом контакте, эмпатии и тонких эмоциональных сигналах, которые машина пока не способна воспринимать и обрабатывать. Даже самые продвинутые модели, утверждает он, опираются на статистические закономерности, а не на реальное понимание человеческого состояния.
Он рассказал, что кибербезопасность и этика — главные точки напряжения в работе с ИИ. Психологи, инженеры и эксперты по безопасности постоянно обсуждают: как сделать так, чтобы ИИ не говорил опасных вещей, не провоцировал людей к вреду и не искажал эмоциональные состояния пользователей. Проблема в том, что ИИ обучается на огромных массивах данных, в том числе неполных, ошибочных и токсичных. И отследить всё невозможно.
Особую тревогу вызывают пользователи в уязвимом эмоциональном состоянии. Когда человек ищет помощи, он особенно восприимчив к словам. ИИ же не отличает депрессивный сарказм от реального призыва о помощи, не понимает скрытых смыслов в речи и может ответить неловко, неполно, а иногда и опасно. Психолог подчеркнул: просьбы о помощи — вещь тонкая, и одна неверная фраза способна ухудшить состояние.
Кроме того, он отметил: попытки сделать ИИ «безопасным» идут параллельно с давлением рынка на создание «доступных цифровых терапевтов». Компании мечтают о масштабировании психотерапии — дешево, быстро, круглосуточно. Но, по мнению специалиста, это путь к подмене реальной помощи имитацией.
Он предупредил, что ИИ может быть полезен в поддержке: напоминать о дыхательных техниках, помогать структурировать мысли, давать справочную информацию. Но там, где начинается настоящая терапия — работа с травмами, кризисами, депрессией, тревожностью — ИИ не должен становиться заменой профессионалу.
Психолог заключил: задача экспертов, работающих над безопасностью ИИ, — не позволить технологиям оказаться в роли, к которой они не готовы. ИИ может быть инструментом, но не терапевтом. И чем раньше общество это признает, тем меньше рисков ждать.
Психолог задает тон — он не считает, что искусственный интеллект должен заниматься терапией. Он не обвиняет технологии, но показывает их границы. ИИ обучается на статистике, а не на понимании, и здесь скрыт источник риска. Особенно тревожно, когда человек в кризисном состоянии пытается получить помощь от чат-бота, который не отличает отчаяние от иронии. Такое взаимодействие превращается в лотерею — повезет, если ответ будет нейтральным.
Рынок, как обычно, пытается натянуть сову на глобус. Идея дешевого цифрового терапевта звучит слишком заманчиво для компаний, чтобы думать о человеческих последствиях. Психотерапия, по их логике, — это сервис, который можно оптимизировать. Но психолог напоминает: это не доставка еды. Здесь нельзя заменить человека алгоритмом без потерь.
В беседах о безопасности ИИ специалисты вынуждены балансировать между реальностью и фантазиями разработчиков. Они пытаются предотвратить появление машин, которые будут пытаться лечить людей. Задача не в том, чтобы запретить ИИ, а в том, чтобы не позволить ему играть роль, которой он не понимает.
Такой скепсис выглядит не пессимизмом, а профессиональной осторожностью. Психолог не говорит, что ИИ бесполезен — он видит для него вспомогательную роль. Но подмена реальной терапии цифровой заменой — слишком рискованный эксперимент. И эксперты, которые работают над безопасностью, видят опасность раньше других.