Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Новое исследование, опубликованное в Journal of Technology in Behavioral Science, показало: то, как человек воспринимает терапевтический диалог, зависит не только от содержания, но и от того, кому он приписывает авторство — живому психологу или искусственному интеллекту. Полученные данные демонстрируют любопытный эффект: тексты ИИ часто оценивают как более эмпатичные и профессиональные, но только до тех пор, пока люди не узнают, что за ними стоит машина. Когда автор раскрывается, оценки меняются резко. И это подчеркивает, насколько важны доверие и представления о «человечности» источника, особенно когда речь идёт о психическом здоровье.
Современная глобальная система психиатрической и психологической помощи переживает кризис. Специалистов не хватает, многие люди остаются без поддержки. Классическая терапия предполагает личные встречи, которые обходятся дорого и нередко недоступны — особенно для жителей удалённых регионов или людей с низким доходом.
На фоне этих проблем технологические компании и медицинские учреждения всё чаще изучают возможности искусственного интеллекта. Текстовые чат-боты способны имитировать диалог и давать быстрые ответы. Они могут помогать людям с лёгкими и умеренными эмоциональными трудностями, когда до специалиста сложно добраться.
Но возникает ключевой вопрос: способен ли алгоритм воспроизвести то, что делает терапию эффективной? Одним из центральных элементов психологической помощи является ощущение, что тебя понимают, поддерживают и сопереживают. Эмпатия включает две важные составляющие: когнитивную — понимание мыслей собеседника — и эмоциональную — разделение его переживаний. Компьютер не чувствует эмоций, поэтому учёные сомневаются: может ли он воссоздать эту человеческую связь.
Автор исследования, преподаватель Университета Манипал Джайпур Гаган Джайн, отметил: после пандемии COVID‑19 проблемы психического здоровья резко выросли, а способность оказывать помощь — нет, особенно в странах вроде Индии. Даже там, где терапия доступна, многие сталкиваются с барьерами стоимости и доступа. В то же время технологии ИИ стремительно развивались. Учёного заинтересовало, может ли ИИ уменьшить этот разрыв — и как люди будут оценивать поддержку машины по сравнению с профессионалом.
Для эксперимента привлекли 84 магистранта клинической психологии: 78 женщин и 6 мужчин в возрасте 21–25 лет. Все участники уже прошли три-шесть месяцев практики. Исследователи решили, что такая аудитория хорошо чувствует тонкости терапевтической коммуникации. Оценивали три параметра: эмпатию, профессионализм и фактическую точность.
Материалы для исследования создали на основе модифицированной версии ChatGPT 4, обученной реальными клиническими случаями и учебниками о депрессии и тревожности. Модель попросили вести себя как терапевт и отвечать на типичные запросы пациентов. Одновременно исследователи взяли настоящие стенограммы терапевтических сессий — сопоставимые по теме, длине и сложности.
В финальный набор вошло три текста, написанные людьми, и три, созданные ИИ. После этого участникам предложили оценить каждую стенограмму по пятибалльной шкале, где единица означала низкое качество, а пять — высокое.
Эксперимент разделили на три этапа, чтобы выявить влияние восприятия источника. На первом этапе участники ничего не знали об авторстве. И ИИ одержал неожиданную победу: его тексты оценили как более эмпатичные, более профессиональные и более корректные, чем человеческие. Исследователи объяснили это тем, что модель генерирует ровную, «отполированную» речь без человеческих ошибок — а такие шаблонные поддерживающие фразы легко воспринимать как очень внимательные.
На втором этапе участников намеренно ввели в заблуждение: тексты ИИ выдали за человеческие, а человеческие — за машинные. И как по команде выросли оценки тех стенограмм, которые участники считали «человеческими», даже если это были ответы ИИ. А реальные тексты терапевтов, которые назвали машинными, наоборот, резко потеряли в оценках. Этот эффект соответствует «аффинити-биасу» — склонности симпатизировать тому, кого считаешь «похожим на себя».
На третьем этапе раскрыли правду об авторстве. И всё перевернулось: человеческие тексты теперь оценили выше по всем параметрам. Люди снова предпочли живых специалистов, особенно по части эмпатии и профессионализма.
Таким образом, восприятие терапевтической поддержки сильно зависит от того, кого человек видит за текстом. Реальный специалист вызывает больше доверия, его слова воспринимаются как более ценные именно благодаря убеждённости в подлинности эмоционального опыта.
Авторы подчёркивают: проблема внедрения ИИ в психическое здравоохранение — не только технологическая, но и психологическая. Важно учитывать ожидания людей и соблюдать прозрачность. При этом ИИ может расширить доступ к помощи, но не заменит подготовленного специалиста, особенно в сложных случаях.
Исследование имеет ограничения: небольшая выборка, почти все участники — женщины, все — студенты‑психологи. Сценарии касались только текстовых диалогов о депрессии и тревоге, тогда как реальная терапия опирается на голос, мимику, динамику общения. Кроме того, технология ИИ стремительно развивается, и будущие модели могут показывать иные результаты.
Учёные подчёркивают, что дальнейшие исследования должны изучить реакции более разнообразных групп — в том числе пациентов — на терапию, созданную компьютером, а также то, как длительное взаимодействие с ИИ влияет на доверие.
Главный вывод: технологии могут расширить доступ к психологической помощи, но заменить живого, обученного человека гораздо труднее. Разработчикам важно учитывать это и обеспечивать прозрачность при внедрении цифровых инструментов в клиническую среду.
Исследование подготовили Samridhi Pareek и Gagan Jain.
Исследование про сравнение терапевтических текстов от ИИ и людей — настоящее зеркало наших предубеждений. Учёные взяли три стенограммы от живых терапевтов и три созданные ChatGPT‑подобной моделью, замаскировали их и дали будущим психологам оценить качество. Пока авторство было скрыто, ИИ неожиданно выигрывал: гладкая, безошибочная речь воспринималась как более профессиональная и чуткая. Стоило подменить ярлыки — и тексты, обозначенные как «человеческие», мгновенно стали лучшими, независимо от содержания. Когда же исследователи раскрыли правду, участники снова вернулись к людям и начали оценивать их выше по всем параметрам. Этот эффект показывает, что мы оцениваем не только слова, но и наше представление о том, кто их произносит. ИИ может расширять доступ к психпомощи, но в сложных случаях люди всё равно доверяют живому специалисту. Исследование подчёркивает важность прозрачности и осторожности при внедрении цифровых инструментов в сферу психического здоровья.