
Компания Anthropic, создатель известного ИИ-чатбота Claude, внезапно изменила свой главный принцип безопасности — и сделала это ровно в тот момент, когда Пентагон усилил давление. История выглядит так, что даже уставший от мировых чудес читатель невольно поднимет бровь.
Ранее Anthropic обещала: ни одного нового поколения ИИ без заранее гарантированных мер безопасности. Это был их главный флаг — будто стоп-кран, который должен был сработать, если технологии окажутся опасными. Но теперь компания сменила тон. В обновленной версии своей Responsible Scaling Policy (RSP) она отказывается от жестких «красных линий» и переходит к более гибкому подходу: относительно оцениваемым рискам, новым отчётам и «дорожным картам безопасности».
В интервью Time главный научный сотрудник компании Jared Kaplan говорит вполне логичные вещи: мол, если Anthropic остановится, конкуренты помчатся вперед, и это никому не поможет. На фоне гонки вооружений в ИИ, где OpenAI стоит уже более 850 миллиардов долларов, подобная логика выглядит почти привычной. Anthropic, к слову, получила в феврале новые инвестиции на 30 миллиардов и теперь оценивается в 380 миллиардов долларов.
Но всё это происходит в тени другого факта: как сообщило Axios, министр обороны США Pete Hegseth требует от Anthropic полного доступа военным к их модели — без ограничений. И дает дедлайн до пятницы. В противном случае компания может столкнуться с мерами давления: от применения закона Defense Production Act, который позволяет президенту США заставить частные компании выполнять нужные госзаказы, до разрыва военных контрактов и ярлыка «риск для цепочки поставок».
Anthropic пока сопротивляется: она заявляет, что не позволит использовать Claude в массовой слежке за американцами или в оружии, стреляющем без участия человека. Но эксперты уже говорят, что в случае конфликта компания, вероятно, будет вынуждена идти в суд.
Особенно тревожно выглядит то, что Claude — единственный ИИ, допущенный к наиболее чувствительной работе военных США. Официальный источник заявил Axios: «Единственная причина, по которой мы с ними вообще разговариваем — они нам нужны, и нужны сейчас. Они слишком хороши».
В материале Time представители сферы безопасности ИИ, такие как директор METR Chris Painter, реагируют осторожно: он хвалит прозрачность, но предупреждает, что отказ от жестких ограничений может привести к эффекту «медленно варящейся лягушки», когда компания будет шаг за шагом оправдывать всё более рискованные решения.
По его словам, новая RSP показывает, что Anthropic уже вынуждена работать в режиме «триажа» — пытаться справляться с рисками, которые развиваются быстрее, чем методы их анализа. А это прямое указание на то, что общество всё еще катастрофически не готово к последствиям стремительного роста возможностей ИИ.
Anthropic решила пересмотреть свои правила безопасности ровно в тот момент, когда Пентагон начал давить на компанию. Интересная симметрия. Сначала нам долго рассказывали про строгие «красные линии», которые должны были остановить развитие ИИ, если оно станет слишком рискованным. Теперь эти линии внезапно стерлись, а вместо них появилось аккуратное слово «относительность». Такое ощущение, что философию заменили бухгалтерией.
Внешне это выглядит как обычная реакция компании на рынок — конкуренты бегут быстрее, клиентов много, деньги большие. Но рядом маячит фигура Пентагона, который вдруг вспомнил, что ему нужен полный доступ к Claude, и вспомнил с такой силой, что дал дедлайн до пятницы. Совпадение? Возможно. Но совпадение с запахом военного приказа.
Любопытно, что именно Claude используется для самых чувствительных задач военных. Это как если бы армия призналась, что полагалась на кота, а теперь требует, чтобы кот подписал контракт и не мяукал. Anthropic сопротивляется, но угрозы серьёзные: от закона Defense Production Act до статуса «риск для цепочки поставок». Пахнет не переговорами, а принуждением.
Эксперты по безопасности ИИ добавляют философской грусти: гибкость правил легко превращается в эффект «вареной лягушки». Сегодня чуть-чуть уступили, завтра придумали убедительное оправдание, а послезавтра уже сами не заметили, как переступили через собственные принципы.
История напоминает классику жанра: идеализм стартапа размывается вместе с ростом капитализации. ИИ становится слишком сильным, контроль — слишком медленным, а общество — слишком уверенным, что технологии сами себя не сломают. Надежда остается только на то, что кто‑то успеет выключить плиту, прежде чем лягушка сварится окончательно.