Новости ИТ : ИИ чат-боты склонны к гипердиагностике психических расстройств без экспертных алгоритмов | Новости психологии perec.ru

ИИ чат-боты заваливают психдиагностику без подсказок

22.01.2026, 21:27:00 Психология
Подписаться на «Психология / Научные исследования»
ИИ чат-боты заваливают психдиагностику без подсказок

ИИ-системы вроде ChatGPT стали излюбленной игрушкой и одновременно потенциальным инструментом психиатрической диагностики. Учёные Университета Калифорнии в Сан-Франциско провели исследование: сравнили, как искусственный интеллект ставит диагнозы по описаниям пациентов — и выяснили, что без строгих профессиональных инструкций чат-боты шарашат диагнозы направо и налево.

В распоряжении исследователей оказались 93 клинических истории из справочника DSM-5-TR с описаниями классических случаев депрессии, биполярного расстройства, шизофрении. Модели GPT-3.5, GPT-4 и GPT-4o тестировались в двух режимах: либо им просто давали описания (так советуется большинству пользователей), либо заставляли отвечать на последовательные «да» или «нет», построенные на основе профессиональных диаграмм решений.

Выяснилось: когда ИИ работает «наобум» (Base — без пошагового контроля), точность резко страдает: GPT-4o угадывает диагноз в 77% случаев, но при этом 60% таких «диагнозов» — мимо кассы. То есть вы приходите с лёгкой бессонницей, а выходите с полным букетом расстройств — спасибо, нейросеть. Если же бот придерживается логики врачей, точные предсказания вырастают до 65%, а уровень ложных тревог падает.

Замечено, что даже при жёстких правилах вопросы ещё приходится уточнять: терминологию ИИ схватывает не всегда, путает медицинские термины, вроде «злоупотребление веществ» и побочные эффекты лекарств или понятие «эгодистонический».

Авторы честно признают: разницы между реальной медициной и задачей «угадать диагноз по рассказу» — как между шахматами и шашками. А потому новомодные чат-боты явно не годятся пока для самостоятельной психдиагностики — только под контролем профи и с доработкой на основе живых данных.

Главный вывод: искусственный интеллект хоть и способен помогать врачам, но только при наличии чётких медицинских рамок. Сам по себе, без таких ограничений, он распределит психические диагнозы, как корпоративные KPI — чтобы всем порадоваться, кроме пациентов.


PEREC.RU

ИИ в психиатрии — звучит как сюжет для чёрной комедии про цифрового доктора-гастролёра. Учёные из Сан-Франциско решили выяснить, что выдаст нейросеть, если не держать её в ежовых рукавицах врачебной инструкции. Результат не удивил: GPT-4o определяет диагнозы уверенно — но ошибается почти в каждом втором. Заболел — получай бонус-диагноз и купон на невроз. Всё честно, чат-боты не стесняются профессиональных оговорок и раздают ярлыки массово.

Когда же ИИ ограничивают строгими «деревьями решений» — как на собеседовании у скучного психиатра, — точность заметно увеличивается, обломы падают. Но готов ли цифровой диагност к реальности? Как показали сами авторы, тестировали они всё это, мягко говоря, в тепличных условиях. Клинические истории — не живые люди. В реальности шанс получить «психушку в приложении» куда выше.

Самое смешное: идейно, эти эксперименты — не про медицину, а про иллюзию контроля. Мол, если натянуть на ИИ пиджак профессора, он перестанет быть алгоритмом угадайки. На самом деле, пока всех выручает только банальный здравый смысл: диагноз — это всё-таки прерогатива врача, а не высокомерного, одержимого статистикой чат-бота.

Поделиться

Похожие материалы