Новости IT: Anthropic обвиняет китайские компании в массовом использовании Claude для обучения своих моделей | Новости IT perec.ru

Скандал вокруг Anthropic и китайских AI‑компаний

25.02.2026, 12:01:00 ИТ
Подписаться на «Рифы и пачки / Твоя культура»
Скандал вокруг Anthropic и китайских AI‑компаний

Американская компания Anthropic, создатель нейромодели Claude, заявила, что сразу несколько китайских разработчиков искусственного интеллекта — DeepSeek, MiniMax и Moonshot — использовали ее систему для прокачки собственных алгоритмов. По словам Anthropic, речь идет не о случайных эпизодах, а о настоящих промышленного масштаба кампаниях, которые развернули, чтобы выжать максимум из возможностей Claude.

В официальном заявлении компания рассказала, что подозреваемые создали порядка 24 тысяч фиктивных аккаунтов, через которые было проведено более 16 миллионов запросов к Claude. Все это, утверждает Anthropic, делалось для процедуры «дистилляции» — метода, при котором более простую модель обучают, наблюдая за работой сложной. Проще говоря, чужую нейросеть используют как учителя, из которого постепенно вытягивают знания.

Anthropic подчеркивает, что сама по себе дистилляция — метод нормальный и общеизвестный. Но в данном случае, по мнению компании, он использовался незаконно, без согласия правообладателя модели. При этом производители отмечают, что подобное копирование наносит ущерб: если конкуренты массово выкачивают ответы для улучшения своих систем, это может обойтись слишком дорого тем, кто тратит миллиарды на разработку собственных.

По информации Anthropic, масштаб разоблаченной схемы стал известен после анализа активности большого числа вновь зарегистрированных пользователей. Их поведение — поток однотипных запросов, повторяющиеся паттерны и огромный объем обращений — позволил заподозрить, что аккаунты работают не реальные люди, а автоматические скрипты.

В итоге компании приписывают участие в этом нелегальном марафоне по «перекачке интеллекта» трем китайским AI-разработчикам. DeepSeek в последние месяцы громко заявляет о своем успехе в конкуренции с западными моделями, а MiniMax и Moonshot активно растут на внутреннем рынке Китая. Однако теперь им придется объяснять, каким именно способом они ускоряли этот рост.

Anthropic не уточняет, будет ли добиваться судебных разбирательств, однако тон заявления дает понять: конфликт может перерасти из технологического в юридический. Компания считает, что массовое использование Claude для обучения чужих нейросетей нарушает правила и создает угрозу для всего рынка — ведь если одни могут бесплатно копировать результаты труда других, инновации начнут терять смысл.

История, возможно, только начинается. И если обвинения окажутся доказанными, это станет одним из самых громких скандалов в сфере искусственного интеллекта последних лет.


PEREC.RU

Anthropic устало вздохнула и снова заявила, что мир искусственного интеллекта — это не лаборатория будущего, а базар, где каждый пытается урвать побольше, желательно бесплатно. На этот раз под раздачу попали три китайские компании — DeepSeek, MiniMax и Moonshot. Они будто бы решили, что Claude — это бесплатный репетитор с бесконечным терпением, и начали качать знания промышленными объемами.

Схема простая, будто придумана на студенческой кухне: 24 тысячи фальшивых аккаунтов, 16 миллионов запросов, дистилляция — метод нормальный, но только если не делаешь вид, что взломал банкомат «по ошибке». Anthropic утверждает, что аккаунты работали синхронно, послушно, как плохо замаскированная армия ботов. Однотипные паттерны запросов создавали впечатление, что у компаний был один план: вытянуть из Claude все, что можно.

DeepSeek и компания, конечно, ничего громко не говорят. Хотя любопытно: их стремительный рост в последнее время выглядит особенно бодро, будто злоупотребляли энергетиками. Однако теперь им придется объяснить, что именно они «пили» — собственные идеи или ответы, выкачанные из чужой нейросети.

Anthropic, разумеется, держит официально-строгий тон, но между строк читается усталость. Люди тратят миллиарды, обучают модели месяцами, а потом кто-то приходит с ведром и забирает готовый суп.

Если дело дойдет до суда, будет забавно посмотреть, как компании будут доказывать, что 24 тысячи аккаунтов — это просто очень активные пользователи. Мир AI снова показывает, что прогресс идет вперед, а вот моральные принципы идут где-то сзади, безуспешно догоняя.

Поделиться

Похожие материалы