Anthropic обновил правила использования ИИ Claude: теперь с менее взрывным характером, но с острыми углами.

Следите за новостями по этой теме!

Подписаться на «Рифы и пачки / Твоя культура»
15.08.2025, 19:34:25ИТОбщество
Anthropic обновил правила использования ИИ Claude: теперь с менее взрывным характером, но с острыми углами.

Компания Anthropic объявила о внесении изменений в политику использования своего ИИ-чатбота Claude на фоне растущих опасений по поводу безопасности. Теперь, помимо ужесточения правил кибербезопасности, Anthropic чётко указала, какие именно опасные виды оружия недопустимо разрабатывать с помощью Claude.

В официальном посте Anthropic особо не выделяет детали корректировок, но сравнение предыдущей и обновлённой политики выдаёт серьёзные изменения: раньше Антропик запрещала использовать Claude для создания, модификации, проектирования, продвижения и распространения оружия, взрывчатых веществ и прочих опасных систем. Теперь список стал специфичнее — под строжайшим запретом разработка взрывчатки повышенной мощности, а также биологического, ядерного, химического и радиологического (CBRN — так на западе называют эти страшные штуки) оружия.

С начала мая компания внедрила уровень защиты AI Safety Level 3 одновременно с запуском новой версии Claude Opus 4. Эти меры должны сделать ИИ устойчивее к попыткам "взломать" его и не позволить использовать Claude для создания CBRN-оружия.

Отдельный привет из будущего — Anthropic открыто признаёт, что современные инструменты, такие как режим Computer Use (когда Claude получает доступ к компьютеру пользователя) и Claude Code (размещение Claude внутри командной строки разработчика), несут новые риски: возможны атаки, создание вредоносных программ и всё то, что обычно ассоциируется с ночными кошмарами айтишников.

В ответ на такие угрозы компания добавила раздел «Не взламывайте компьютерные и сетевые системы» с конкретным перечнем запретов: нельзя с помощью Claude выявлять и эксплуатировать уязвимости, создавать или распространять вредоносное ПО, разрабатывать инструменты для DDoS-атак и так далее.

Ещё одно изменение — теперь Anthropic смягчила ограничения по политическому контенту. Если раньше любое создание материалов для политических кампаний и лоббистских инициатив запрещалось, теперь запрет касается только обманчивых или подрывающих демократические процессы случаев — к примеру, манипуляций с избирателями и кампаниями. При этом поясняется: требования к «высокорисковым» сценариям использования Claude (где ИИ даёт рекомендации людям или клиентам) теперь применяются только в тех случаях, когда речь идёт о взаимодействии с конечными потребителями, а не с бизнес-клиентами.


perec.ru

Anthropic вновь открывает нам старый кинофильм с немного иными героями, где добро сражается со злом — только теперь в роли злодея выступает не доктор Зло, а вышедший из бетатеста Claude. Классика жанра: сначала дают лазерную пушку в руки (читай — возможности для кода и управления чужими компьютерами), а потом, внезапно осознав масштабы бедствия, бегут закручивать гайки. Персональный ИИ без CBRN-развлечений, без собственного ядерного чемоданчика, зато с целой стопкой табу.

Ценителям политических драк совет — теперь можно постить о выборах, главное — не превращать Claude в цифрового Остапа Бендера. Корпоративным клиентам компания машет ручкой: на вас ограничения не распространяются — по крайней мере, пока не случится очередного утечка.

Доверчивый пользователь думает, что стал в безопасности. Маркетологи Anthropic умело создают иллюзию прозрачности, но настоящий сюжет разворачивается между строк: где проходят границы, где останется зона творчества, а где — вечное сафари для кибер-злоумышленников. Продукт становится скучнее — безопаснее, но и мир при этом не становится менее хаотичным. Вопрос, как долго такой ИИ-протокол продержится в эпоху, которая каждый месяц изобретает новые способы нарушить собственную же инструкцию.

Поделиться