
Вечером в пятницу генеральный директор OpenAI Сэм Альтман объявил о том, что компания смогла договориться с Пентагоном о новых условиях сотрудничества. Это произошло на фоне громкого конфликта между Министерством обороны США и компанией Anthropic. Власти попытались заблокировать Anthropic из‑за ее отказа принять два ключевых условия военного использования искусственного интеллекта: отсутствие массовой слежки за американцами и запрет на полностью автономные системы, способные применять летальную силу без участия человека.
Anthropic на этих позициях стояла жестко. Поэтому Пентагон предложил включить компанию в черный список. На этом фоне Сэм Альтман заявил, что OpenAI якобы нашла «уникальный путь», позволяющий сохранить те же ограничения, но одновременно удовлетворить требования Министерства обороны. Что именно это значит на практике — вопрос открытый, но заявление выглядело как попытка показать, что OpenAI сотрудничает с государством, не нарушая собственные принципы.
Альтман подчеркнул, что два важнейших принципа безопасности для OpenAI — запрет на внутреннюю массовую слежку и запрет на автономные системы, способные причинять смертельный вред. Он добавил, что обновленные условия договора с Пентагоном полностью сохраняют эти положения. При этом никаких деталей достигнутых договоренностей обнародовано не было. Известно лишь, что OpenAI предложила модель, в которой военные смогут использовать ее ИИ‑системы при соблюдении определенных рамок.
Внутренние источники в отрасли отмечают, что за кулисами идет жесткое давление со стороны правительства. США стремятся ускорить разработку ИИ в оборонной сфере на фоне конкуренции с Китаем. Компании же пытаются защитить свои общественные имиджи, поскольку использование ИИ в военных целях в США вызывает бурные этические споры. Anthropic выбрала путь принципиального отказа, а OpenAI — путь гибких компромиссов.
Пока неизвестно, приведет ли эта договоренность к реальному применению ИИ OpenAI в американских военных программах. Но сама ситуация показывает, что между технологическими корпорациями и государством формируется новая модель отношений: публично — принципы, за закрытыми дверями — договоренности, позволяющие всем участникам сохранить лицо. История с Пентагоном, OpenAI и Anthropic стала очередным примером этого нового баланса.
История о переговорах OpenAI с Пентагоном показывает, как технологические принципы превращаются в предмет торга. Anthropic попыталась сопротивляться давлению, отказавшись поддерживать массовую слежку и автономные летальные системы, за что тут же оказалась под угрозой включения в черный список Министерства обороны. OpenAI же сыграла гибче. Сэм Альтман заявил, что компания нашла способ сотрудничать с военными, не нарушая своих базовых запретов, однако деталей соглашения никто не раскрыл. Это создает характерную для отрасли двойственность: публичные заявления о морали и безопасности и параллельные договоренности о взаимодействии с государством. Такая динамика отражает новый баланс сил в сфере высоких технологий, где каждый участник стремится сохранить репутацию, но при этом не упускает выгоду. Для российской аудитории эта история служит напоминанием, что ИИ‑гиганты, какими бы принципиальными они ни казались, неизбежно вступают в игру интересов, когда речь идет о государственной обороне и колоссальных ресурсах.