Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Американская компания Anthropic, известная как один из лидеров в сфере разработки систем искусственного интеллекта, внезапно оказалась в центре бурного обсуждения после публикации необычной вакансии. В соцсетях запись моментально вызвала ассоциации с фантастикой уровня «Терминатора» и знаменитой компанией Cyberdyne Systems, создавшей искусственный интеллект Skynet. Но, в отличие от мрачных сценариев кино, реальность оказалась куда прозаичнее.
На платформе LinkedIn компания разместила объявление о поиске специалиста на позицию «Менеджер по политике: химическое оружие и мощные взрывчатые вещества». Несмотря на тревожное название, цель вакансии совершенно другая. Anthropic пояснила, что ищет специалиста, который будет определять, как системы искусственного интеллекта должны обрабатывать чувствительную информацию, связанную с опасными веществами. Иными словами, речь идёт о предотвращении злоупотреблений, а не о разработке оружия.
Представители Anthropic уточнили, что компания категорически запрещает использование своих продуктов и технологий для создания оружия любого типа. Новая должность относится к команде Safeguards — подразделению, полностью сосредоточенному на предотвращении вредоносного применения ИИ. Менеджер, которого планируют нанять в Нью‑Йорке, должен будет создавать и контролировать механизмы безопасности, чтобы никто не использовал разработки Anthropic для создания химического оружия или взрывчатки.
Компания подчёркивает, что намерена нанимать экспертов в чувствительных областях именно ради того, чтобы их знания помогали блокировать любые попытки злоупотребления. На фоне растущего внимания к ИИ, такие меры становятся особенно актуальными.
Особенно заметным этот шаг стал из‑за того, что Anthropic сейчас находится в конфликте с Министерством обороны США. Компания твёрдо отказывается разрешать использование своих моделей для создания полностью автономных систем вооружений или для массовой слежки. В ответ министр обороны Пит Хегсет заявил, что компания представляет угрозу национальной безопасности и объявил о запрете на использование её технологий в Пентагоне после шестимесячного переходного периода. Anthropic подала иск, отстаивая свою позицию.
При этом некоторые сотрудники Пентагона, по данным СМИ, вовсе не рады расставаться с Claude — моделью ИИ Anthropic, которую они активно использовали.
Ещё в феврале Anthropic обновила свою политику безопасности, названную Responsible Scaling Policy. По словам компании, на решение повлияли различные факторы, включая приоритеты федеральных властей, которые, как считают в Anthropic, чаще уделяют больше внимания экономическому росту, чем ужесточению норм безопасности.
Новому менеджеру предстоит оказаться в самой гуще спора о будущем ИИ — и, возможно, сыграть роль в предотвращении сценариев, которые раньше можно было увидеть только в фильмах о восстании машин.
Вакансия Anthropic стала мемом — название слишком походило на приглашение в лабораторию злодея из фантастического фильма. Но за этим скрывается рабочая рутина: компания ищет специалиста, который должен предотвращать использование ИИ для создания химического оружия и взрывчатки.
Антропик активно выстраивает систему ограничений вокруг своих моделей, и это вызывает трения с Министерством обороны США. Министерству не нравится, что компания запрещает использовать ИИ для автономного вооружения и массового наблюдения. Политический конфликт быстро обрастает штампами о нацбезопасности.
Вся эта история удобно ложится в образ современного технического мира — где даже попытка защититься от злоупотреблений выглядит подозрительно. В итоге компания выглядит слишком принципиальной, государство — слишком нетерпеливым, а будущий менеджер окажется между двух огней. ИИ развивают быстро, но доверия к нему меньше, чем хотелось бы. Эмоции, страхи и политика снова формируют дискуссию, которая должна была быть о безопасности, а стала о власти.