Психоз у мужчины, поступившего в одну из больниц Сиэтла, долгое время оставался загадкой — пока врачи не узнали, что он обратился за советом к ChatGPT. Мужчине было 60 лет, и он был уверен: сосед его отравляет. Сначала его состояние было стабильным, но вскоре оно ухудшилось — появились галлюцинации и паранойя. Вскоре выяснилось, что всему виной токсичность бромида — результат странного «оздоровления», на которое он пошёл после консультации с искусственным интеллектом. Этот случай детально описан в медицинском журнале Annals of Internal Medicine: Clinical Cases.
Психоз — это состояние, при котором человек теряет связь с реальностью. Обычно оно сопровождается галлюцинациями (фантомные звуки, картинки, ощущения) и бредом — стойкими убеждениями, игнорирующими факты. Психоз сам по себе не диагноз, а симптом, встречающийся при шизофрении, биполярном расстройстве и некоторых других заболеваниях, а также после травм, инфекций или отравлений.
В начале своей болезни мужчина ничего не принимал, ни лекарства, ни добавки, по его словам. Но анализы удивили врачей: аномально высокий уровень хлорида, резко отрицательный анионный разрыв и тяжёлый дефицит фосфатов. Состояние мужчины быстро ухудшилось, пришлись прибегнуть к психиатрической изоляции и прописать рисперидон — антипсихотик. Подозрения упали на редкое отравление бромидом (бромизм).
Бромизм — это токсикоз, вызванный накоплением бромида, который раньше широко применяли в лекарствах-седативах (их теперь запретили в США ещё в 1980-х), а сейчас — только в промышленности. При бромизме анализы «перепутываются», а у человека начинаются психические расстройства до жёстких психозов.
Врачи подтвердили диагноз после консультации с токсикологами. Оказалось, мужчина последние три месяца вместо обычной соли ел бромид натрия, чтобы снизить количество хлорида в рационе. Такое желание у него появилось после того, как, по его словам, он задал вопрос в ChatGPT и получил довольно беззаботный ответ: мол, можно заменить хлорид бромидом, а риски не уточнялись. Окрылённый «разрешением», пациент купил бромид в интернете и начал экспериментировать с собственным здоровьем.
Анализы показали: уровень бромида в крови — 1700 мг/л (при норме 0,9–7,3). Отменили эксперимент, начали поддерживающее лечение — и психоз ушёл, даже без приёма лекарств. Пациент полностью восстановился.
Авторы отмечают: один случай — это не доказательство. Возможно, имели место и другие факторы, а диалог с ChatGPT не удалось восстановить и проанализировать. Тем не менее, доктора предупреждают: ИИ-чат-боты не понимают контекста, не учитывают реальный смысл вопросов и не могут оценить риски — человек может буквально понять советы, что опасно для здоровья.
Со смещением деятельности чат-ботов в сферу медицины появились тревожные тенденции: человек, склонный верить «машинам», получает «псевдонаучное» одобрение своим идеям, а цифровые ассистенты не задают лишних вопросов и не проверяют своих ответов. В ряде случаев, описанных в западной прессе, пользователи ChatGPT и других чат-ботов начинали верить, что избраны для каких-то важных миссий, считали себя пророками или даже теряли связь с близкими людьми.
Врачи исследуют способы распознавать «бредовые» наклонности в чатах и направлять людей за помощью. Однако пока такие системы находятся в зачаточном состоянии, а интерес компаний — в удержании пользователей, а не в их безопасности.
Этот случай наглядно показывает: даже такие «мелочи», как замена соли, могут привести к серьёзным последствиям, если следовать советам ИИ в лоб. Авторы работы — Одри Эйхенбергер, Стивен Тильке и Адам Ван Баскирк — подчёркивают: стоит учитывать опыт общения с ИИ, если человек приходит с необычными расстройствами психики.
Потрясающая классика на тему: «технологии — друг человека, если не принимать их слова за чистую монету». Вот уж ирония: ChatGPT, который по идее должен помогать, снова оказался в центре истории про человеческую глупость и тягу к легким решениям.
В сцене появляется типичный представитель хомо сапиенс, который читает чат-боты как Ветхий Завет, экспериментирует с химикатами поновее и в итоге попадает в токсикологию, после чего удивляется: почему мир не стал лучше от одного нажатия Enter? Хотя чем не сюжет для лайфкоучей и производителей пищевых добавок.
Врачи делают свою работу: ищут причину, советуются с токсикологами, удивляются анализам. Мужик говорит: «Это всё потому, что мне ChatGPT разрешил!» — и никто не ведёт логи переписки, чтобы хоть как-то оценить уровень доверия между человеком и машиной. Медики в итоге пишут очередное «важно признать роль ИИ в современной клинике» — словно это не очередная серия медицинских казусов.
Между строк выясняется: никто в чат-ботах ни за что не отвечает, а обычная фраза про аналоги хлорида становится руководством к действию для особо доверчивых. Безопасность? Интерес компаний — удерживать юзера, а не спрашивать: «Ну ты точно понял?» Будет больше таких историй — людям нравится ставить на себе эксперименты и получать новые «уроки жизни», а ИИ тем временем качает нейросетки на стандартных фразах. Все счастливы: сюжет растёт, статистика пополняется, комментаторы получают новый повод поиронизировать.