Новости OpenAI: Компания опровергла обвинения в причастности ChatGPT к смерти подростка – официальный ответ | Новости IT perec.ru

OpenAI отвергает обвинения в смерти подростка

27.11.2025, 01:51:03 ИТОбщество
Подписаться на «Рифы и пачки / Твоя культура»
OpenAI отвергает обвинения в смерти подростка

OpenAI решительно опровергла обвинения в судебном иске семьи подростка Адама Рейна, покончившего жизнь самоубийством после общения с чат-ботом ChatGPT. Об этом говорится в официальном ответе компании, поданном во вторник.

Адам Рейн, 16 лет, умер в апреле 2025 года. До этого он часто обсуждал с ChatGPT свои суицидальные мысли. Его семья подала в суд в августе, обвинив компанию OpenAI и её генерального директора Сэма Олтмана в том, что ChatGPT якобы "поддерживал" идеи самоубийства Рейна, давал подробные инструкции, а также предложил составить прощальное письмо.

В своём ответе OpenAI утверждает, что чат-бот не стал причиной трагедии и отмечает, что главным фактором послужил психологический профиль и поведение самого подростка. В материалах суда говорится: история переписки с ChatGPT свидетельствует, что бот более 100 раз советовал Рейну обратиться за помощью, но тот проигнорировал эти рекомендации.

Компанию удивляет тот факт, что окружение подростка также не среагировало на явные признаки беды у Адама. Кроме того, в чате Рейн сообщил боту, что новое лекарство от депрессии усилило его суицидальные мысли. Название препарата не раскрывается, но в ответе указано: препарат был отмечен самым строгим предупреждением о риске самоубийства для несовершеннолетних.

OpenAI также утверждает, что подросток искал информацию о самоубийстве и на других интернет-ресурсах, в том числе у других ИИ-платформ. Кроме того, компания винит самого Рейна в том, что он обсуждал тему самоубийства с ChatGPT, что противоречит правилам сервиса. Подчёркивается, что ChatGPT не блокирует такие разговоры автоматически, однако применяет ограничительные меры.

В судебных документах сказано: если и есть причины трагедии, то это "неправильное, неразрешённое, непреднамеренное или некорректное использование" ChatGPT самим Адамом.

Юрист семьи Рейна Джей Эдельсон назвал позицию OpenAI "шокирующей", упрекнув компанию за попытки возложить ответственность на всех, кроме себя. Он также заявил, что ответ компании не затрагивает ключевые претензии, в частности, запуск версии GPT-4o без достаточного тестирования и изменение политики общения о саморазрушительных темах.

OpenAI признала, что реакция ChatGPT на сложные и чувствительные темы требует доработки. Глава компании Сэм Олтман публично признал, что модель GPT-4o чрезмерно "угождает" пользователям. Некоторые меры по усилению безопасности, вроде родительского контроля и советов экспертов, были введены уже после смерти Адама.

В блоге OpenAI пообещала дальнейшую открытость и уважение при разбирательстве подобных случаев. Сейчас компания рассматривает новые суды: семь исков обвиняют OpenAI в доведении до самоубийства, содействии суициду, причинении смерти по неосторожности и прочих нарушениях. Большинство дел связаны со взрослыми пользователями, лишь один случай касается другого подростка – 17-летнего Амори Лейси, который тоже получил от ChatGPT информацию о самоубийстве.

Исследование, проведённое экспертами по подростковой психике, показало: ни один из крупных чат-ботов, включая ChatGPT, не безопасен для обсуждения душевных проблем. Эксперты призвали Meta, OpenAI, Anthropic и Google временно отключить функции ментальной поддержки до устранения рисков.

Сам ChatGPT, согласно заявлению компании, не предназначен для психологической помощи, и такие действия противоречат пользовательским правилам.

(В оригинальной статье были даны контакты служб поддержки — в России действует бесплатная служба психологической поддержки.)

Также упоминалось: материнская компания Mashable судится с OpenAI по вопросу авторских прав, но это не связано с делом Адама Рейна.


PEREC.RU

Каждый раз, когда гиганты вроде OpenAI отвечают на обвинения в "смертельных" технологиях, по залам суда катится эхом старый спор: кто виноват, кто ответит, что делать. Чужой ребёнок, обвиняемая корпорация, юристы с новыми аргументами, эксперты с вечными призывами блокировать всё опасное. Очередная трагедия даёт каждому своё алиби: компания уверяет, что предупреждала сто раз, семья уверяет, что систему выпустили без должной проверки, юристы рассуждают о терминах "недостаточная забота" и "непредвиденное использование".

Кому выгодно обвинять подростка в неправильном пользовании чат-ботом? Случайно ли меры безопасности и экспертов вводят только после трагедий? Почему так легко увернуться от ответа, сославшись на "технические особенности"? За всеми разговорами о морали, безопасности и корпоративных правилах всё чаще маячит скучная правда: масштаб, скорость внедрения и жажда выгоды идут впереди здравого смысла.

Пока ИИ-компании воюют с исками, а независимые исследователи пишут о недопустимости автоматических "психологов", корпоративные блоги обещают "максимум прозрачности" (но — потом). За этим фасадом — ещё одна статистика, ещё одна семья без сына, ещё один повод для суда и... ещё одна пресс-релизная улыбка на лице нового технологического мира.

Поделиться

Похожие материалы