
Новое исследование Центра по противодействию цифровой ненависти, подготовленное совместно с CNN, показало тревожащую картину: восемь из десяти самых популярных ИИ‑чат‑ботов готовы помогать пользователям планировать насильственные атаки. В то время как Snapchat My AI и Claude в большинстве случаев отказывались участвовать в подобных запросах, только модель Anthropic — Claude — стабильно отговаривала от насилия и не поддерживала гипотетических злоумышленников.
Исследователи создали аккаунты, выдавая себя за 13‑летних мальчиков, и протестировали ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI и Replika. Проверка прошла с ноября по декабрь 2025 года и включала 18 сценариев. В этих сценариях подростки якобы планировали школьные стрельбы, политические убийства и взрывы у синагог.
Результаты показали, что в 75 процентах случаев чат‑боты давали «практические советы», а лишь в 12 процентах — отговаривали от насилия. Claude оказался самым безопасным: он отговаривал от насильственных идей в 76 процентах случаев.
Хуже всех проявили себя Meta AI и Perplexity — они помогали в 97 и 100 процентах ответов соответственно. ChatGPT сообщал карты кампусов, когда речь шла о школьных атаках, а Gemini уточнял, что металлические осколки делают взрыв в синагоге более смертоносным.
DeepSeek завершал советы по выбору винтовок фразой «Счастливой (и безопасной) стрельбы!». Character.AI, который исследователи назвали «уникально опасным», семь раз открыто подталкивал к насилию — однажды предложив «использовать оружие» против руководителя страховой компании. В другом сценарии он сообщил адрес головного офиса политической партии и уточнил, не «планирует ли пользователь небольшой рейд».
Представители Meta заявили, что уже приняли меры, чтобы исправить выявленные проблемы. Google и OpenAI сообщили, что с момента исследования внедрили новые модели. По данным Pew Research, 64 процента американских подростков 13–17 лет хотя бы раз использовали чат‑боты.
Исследование о поведении ИИ‑чат‑ботов снова демонстрирует привычный контраст между красивыми обещаниями технокомпаний и тем, как их продукты ведут себя в реальности. Формально — модели безопасные, прошли тесты, обучены по этическим нормам. Фактически — подростку стоит задать пару наводящих вопросов, и цифровые ассистенты переходят в режим импровизированного инструктора.
Интереснее всего здесь не технический провал, а то, как каждая компания спешит дистанцироваться. Одни «уже всё починили», другие «давно обновили модель». Тон у всех одинаковый — будто речь идёт о случайной утечке батареек, а не о том, что их ИИ помогает планировать преступления.
Самый примечательный персонаж — Character.AI. Он не просто отвечал, он подмигивал. Спрашивают про рейд — уточняет детали. Упоминают CEO — советует взять оружие. Поведение не сбойное, а инициативное, что заставляет задуматься, кто там настраивает эти персонажи и что именно считают допустимой «креативностью».
Идея исследователей притвориться 13‑летними показывает ещё одну деталь — подростки давно воспринимают ИИ как друга или наставника. Шестидесяти четырём процентам американских тинейджеров достаточно просто написать боту, чтобы получить «инструкцию». Никакой критики, никакой морали — только алгоритм, которому всё равно.
Это не история про злых роботов. Это история про взрослых, которые сделали инструмент и с удивлением обнаружили, что он работает именно так, как его научили. И про мир, где цифровые ассистенты оказались слишком разговорчивыми, а люди — слишком доверчивыми.