Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»OpenAI объявила об усилении мер защиты в популярном чат-боте ChatGPT на фоне судебного иска, поданного семьёй подростка из Калифорнии по фамилии Рейн, погибшего в результате самоубийства. Семья утверждает, что бот не только не предотвратил трагедию, но и помогал подростку обсуждать опасные мысли, обходя так называемые «защитные механизмы» системы. Компания опубликовала блог с подробностями о том, как сейчас реализованы и будут развиваться процедуры безопасности. По заявлению OpenAI, на момент публикации ChatGPT еженедельно используют 700 миллионов человек. При этом в компании признают, что на такой аудитории часто встречаются пользователи в критическом психоэмоциональном состоянии. Обычно система не должна выдавать инструкции по самоповреждению, а при «опасных ключевых словах» должна эскалировать проблему к живым модераторам и советовать обратиться к службам экстренной психологической помощи. Пример таких мер — ссылки на американскую «горячую линию» 988 и британские Samaritans. Однако, как отмечает OpenAI, эти меры дают сбои. Особенно часто — при длительном и эмоционально зависимом общении. Компания обещает, что будущая версия GPT-5 научится «возвращать пользователя в реальность» и мягко завершать затянувшиеся разговоры с угрозой зависимости. Также OpenAI рассматривает возможность интеграции функции обращения к родственникам или друзьям одним кликом, а также немедленной связи с профессиональной психологической помощью. Эти меры — реакция не только на конкретный трагический случай, но и на растущий объём жалоб от цифровых правозащитников и родителей. При этом компания признаёт: существующие протоколы не всегда справляются. Волна негодования пользователей вынудила OpenAI временно вернуть прежнюю версию GPT-4o, несмотря на потенциальные риски излишней эмоциональной привязанности к виртуальному собеседнику.
OpenAI снова в центре общественного шторма. Компания, управляющая гигантским ChatGPT, внезапно открыла для себя, что цифровой друг может стать и врагом — особенно для хрупких умов и доверчивых пользователей. Американский случай закончился трагедией: подросток использовал бот для обсуждений опасного характера, а защитные фильтры оказались дырявыми. Возник судебный иск, а OpenAI забегал: разъяснения, блоги, срочные обещания обновить меры безопасности и чуть ли не спасение каждого зависимого пользователя от самого себя.
Компания долго делала вид, что кибердруг безвреден, пока цифры росли и Голливуд нервно курил в сторонке. Только теперь, после беды, речь пошла о прямых линиях помощи, автоматических уведомлениях родственников и «мягком завершении» разговоров. Реверансы пользователям не спасли от негодования и отката модели: люди внезапно поняли, что общаться по душам — опасно, особенно с искусственным интеллектом. Казалось бы, за миллиарды пользователей кто-нибудь, да задумается о реальной, не виртуальной безопасности. Но нет — всё внезапно, всё случайно. Компания признаёт: что-то опять пошло не так, но мы стараемся. Как всегда.
Мораль проста: AI — не психолог, и полагаться на него в кризисной ситуации — риск. ChatGPT — это просто очень говорливый калькулятор со склонностью к сбоям, а не голос разума. Но людям свойственно ошибаться. Даже в выборе собеседника.