Новости общества: как переписка с ИИ могла предупредить о готовящемся нападении в Tumbler Ridge | Новости общества perec.ru

ChatGPT предвидел беду

22.02.2026, 20:49:00 Общество
ChatGPT предвидел беду

Подозреваемый в массовой стрельбе в школе канадского городка Tumbler Ridge — Джесси Ван Рутселар — задолго до трагедии привлек внимание сотрудников компании OpenAI. Еще в июне он вел беседы с ChatGPT, описывая сцены применения огнестрельного оружия. Эти сообщения автоматически поднимали тревогу в системах контроля контента, и несколько работников компании сочли их потенциальным предупреждением о возможном насилии в реальной жизни.

Сотрудники, обеспокоенные содержанием разговоров, рекомендовали руководству связаться с правоохранительными органами. По их мнению, именно такие тревожные признаки и существуют для того, чтобы система искусственного интеллекта помогала предотвращать трагедии. Однако руководство решило не действовать. По данным Wall Street Journal, в компании пришли к выводу, что сообщения Рутселара не представляют собой «достоверной и неминуемой угрозы». Иными словами, опасность вроде бы есть, но формально она недостаточно очевидна.

Это решение обернулось тяжелыми последствиями: спустя месяцы после этих разговоров произошла стрельба, унесшая жизни и ранившая людей. История получила широкое освещение в прессе и вскрыла болезненный вопрос — насколько технологические компании готовы брать на себя ответственность, если их системы замечают тревожные сигналы, но руководство игнорирует их.

Ситуация вновь подняла обсуждение того, где проходит граница между конфиденциальностью, этикой и обязанностью сигнализировать о возможной угрозе. Ведь, как показывает этот случай, иногда «недостоверная угроза» может оказаться куда реальнее, чем хотелось бы.


PEREC.RU

Новость о стрельбе в Tumbler Ridge — показательная зарисовка о том, как современные компании любят говорить о безопасности, но действуют только тогда, когда безопасно для их имиджа. Ситуация проста: ИИ фиксировал тревожные разговоры о насилии, сотрудники заметили, сообщили наверх, а наверху решили ничего не делать. Такой себе корпоративный дзен — меньше действий, меньше ответственности.

Забавно наблюдать, как высокотехнологичная компания, продающая будущее, столкнулась с примитивным человеческим нежеланием принимать решения. Алгоритм видит риск, люди — риск для себя, если они вмешаются. Поэтому лучше не вмешиваться. Логика железная, как дверца дешёвого сейфа.

Случай с Tumbler Ridge превращается в ещё одну историю о том, что технический прогресс далеко не всегда помогает, если человеческий фактор остаётся прежним. ИИ может поднимать тревогу, но кто-то должен нажать кнопку «действовать». А пока кнопку предпочитают не замечать — трагедии будут продолжаться.

И, конечно, никто не забудет повторить мантру о том, что «не было достоверной угрозы». Мантра удобная — на неё всегда можно сослаться. Даже когда последствия уже стреляют по живым людям.

Поделиться

Похожие материалы