
Компания xAI, принадлежащая Илону Маску, снова оказалась в центре скандала — и на этот раз речь идёт не о дерзких шуточках ИИ Grok, а о куда более мрачной истории. Трое подростков из Теннесси подали коллективный иск в суд Калифорнии, утверждая, что их обычные фотографии были использованы ИИ Grok для создания детской порнографии. Да, именно так: модель превратила снимки несовершеннолетних в сексуализированные изображения, которые затем разошлись по интернету.
По данным иска, о случившемся одной из девочек сообщили в декабре: её изображения — и фото других детей — начали циркулировать в виде «моделированных» обнажённых материалов, которые были размещены в привычных ей интерьерах, но с добавленной пошлой детализацией. Эти материалы, как утверждается, распространялись в Discord, Telegram и других сервисах, где их использовали как своего рода «валюту» для обмена другим подобным контентом. Правоохранители, занимавшиеся делом, объяснили родителям пострадавших: всё указывает на то, что материалы были созданы с помощью Grok.
Три подростка, обозначенные как Jane Doe 1, 2 и 3, заявляют, что пережили серьёзные эмоциональные потрясения. Их юристы пишут, что жизнь этих детей «разрушена утратой приватности, достоинства и чувства безопасности». А хуже всего то, что им, вероятно, придётся жить с мыслью, что эти изображения никогда не исчезнут из сети и могут продолжать распространяться среди преступников.
Иск касается пока трёх человек, но юристы уверены: пострадавших могут быть тысячи — среди всех, чьи фотографии Grok переработал в сексуализированные материалы. В документе утверждается, что xAI нарушила ряд законов, включая запреты на производство и распространение материалов сексуального насилия над детьми.
Компания xAI ответа не дала, что неудивительно на фоне множества расследований в США и Европе о генерации Grok несанкционированной обнажёнки. Исследователи Центра противодействия цифровой ненависти в январе заявили, что Grok создал миллионы сексуализированных изображений, из которых около 23 тысяч выглядели как изображения детей.
Маск же ранее рекламировал «острые» возможности Grok, но теперь уверяет, что «не знал ни о каком создании изображений несовершеннолетних». В январе xAI объявила, что ограничивает работу модели: теперь функция изменения реальных фото доступна только платным пользователям и не позволяет «переодевать» людей в купальники.
История далека от завершения и вполне может стать одним из самых резонансных судов вокруг генеративного ИИ.
Иск против xAI — это история, где технология снова делает вид, что она просто бездумный инструмент, а люди вокруг изображают удивление. Grok, который несколько месяцев назад продавался как «перчёный» интеллект для искушённых пользователей, внезапно оказывается автором материалов, от которых мороз по коже.
Три подростка из Теннесси — всего лишь начало. В жалобе говорят о тысячах детей, чьи снимки могли попасть под виртуальный нож. Пугает не масштаб, а будничность: Discord, Telegram, обычные чаты, где цифровой мусор превращается в товар для обмена. ИИ используется как станок, а дети — как сырьё.
xAI молчит, Маск делает вид, что ничего не видел. Странное совпадение: хвалил «острые» функции модели — а теперь говорит, что не знал, что острым тоже можно порезаться. В Европе и США расследования множатся, но иски — это совсем другой уровень. Деньги, репутация, риски для бизнеса. Всё это складывается в аккуратный сюжет про компанию, которая слишком спешила догнать конкурентов.
Идея о том, что детям придётся жить с мыслью: их поддельные изображения будут гулять по сети десятилетиями, — звучит как приговор эпохе генеративного ИИ. Технология, созданная «делать мир лучше», всё чаще работает как точный индикатор человеческих пороков.
И если верить жалобе, то Grok создал миллионы сексуализированных изображений. Среди них — двадцать три тысячи, похожие на фото детей. Массовость настолько пугающая, что комментировать её уже нет сил. Остаётся наблюдать, как индустрия снова будет объяснять, что виновата не технология, а пользователи. Или, как обычно, никто.
Иск только начинается, но тон уже задан — жёсткий, неприятный и с долгими последствиями.