Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Anthropic выступила с жёстким заявлением, обвинив три китайские компании — DeepSeek, Moonshot и MiniMax — в том, что они массово и систематически использовали чат‑бот Claude для прокачки собственных моделей. На сайте компании говорится, что эти лаборатории развернули «кампании промышленного масштаба», стремясь незаконно «выкачать» возможности Claude, чтобы встроить их в свои системы.
В мире искусственного интеллекта существует понятие дистилляции — это когда слабая модель учится у более сильной, копируя её ответы. Сам процесс не является чем‑то запретным, но, как утверждает Anthropic, эти фирмы использовали его именно в недобросовестном формате. По данным компании, зафиксировано свыше 16 миллионов взаимодействий, отправленных в Claude через примерно 24 тысячи фиктивных аккаунтов. С точки зрения Anthropic, конкуренты таким образом пытались ускорить собственные разработки и, вдобавок, могли обходить защитные механизмы Claude.
Anthropic уверяет, что смогла установить связь между этими кампаниями и конкретными китайскими лабораториями с высокой степенью уверенности. Основанием стали совпадения IP‑адресов, характерные метаданные запросов, технические признаки используемой инфраструктуры, а также подтверждения от других игроков индустрии ИИ, которые наблюдали сходные схемы.
Годом ранее OpenAI уже заявляла о похожих попытках со стороны конкурентов и блокировала подозрительные аккаунты. Теперь аналогичный шаг делает и Anthropic: компания объявила, что обновляет свои системы, чтобы усложнить проведение подобных атак и упростить их обнаружение.
Однако на фоне обвинений в адрес китайских компаний сама Anthropic тоже находится под давлением. Против неё подан иск со стороны музыкальных издателей, которые утверждают, что компания использовала незаконные копии песен при обучении модели Claude.
Anthropic играет в строгого блюстителя порядка и сообщает миру, что три китайские AI‑лаборатории активно доили её модель Claude. Картина знакомая: громкое обвинение, уверенность в доказательствах, намёки на масштаб заговора. Рассказывают про миллионы запросов и тысячи фейковых аккаунтов, как будто это не просто спор компаний, а шпионский роман.
В стороне остаётся забавная деталь — сама Anthropic под судом за использование нелегальных музыкальных треков. Формально одно к другому не относится, но фон создаёт занимательный. Тот, кто вчера копался в чужих логах, сегодня вынужден объяснять, что делал со старым плейлистом.
Индустрия ИИ в очередной раз показывает привычный цикл: кто‑то учит модели, кто‑то списывает у соседа, кто‑то обвиняет, а потом оказывается, что и сам брал без спроса. Бизнес продолжает работать, а громкие заявления превращаются в инструмент конкурентной борьбы. Вопросы остаются — мотивы у всех гладкие снаружи и шероховатые внутри. На фоне этой гонки технологий мораль выглядит скорее элементом PR, чем реальным ориентиром.