Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Надзорный совет снова потребовал от Meta пересмотреть свои правила в отношении контента, созданного при помощи искусственного интеллекта. На этот раз совет настаивает: нужно выделить отдельное правило именно для ИИ‑материалов, не смешивая его с политикой борьбы с дезинформацией, улучшить инструменты выявления таких материалов и активнее использовать цифровые водяные знаки.
Повод для рекомендаций — ролик, созданный ИИ и размещённый в прошлом году. На нём якобы были запечатлены разрушенные здания в израильском городе Хайфа в ходе конфликта между Израилем и Ираном в 2025 году. Видео быстро собрало более 700 тысяч просмотров и было опубликовано от имени «новостного» аккаунта, которым, как выяснилось, управлял человек с Филиппин.
Meta отказалась удалять видео или добавлять к нему ярлык «высокий риск», который ясно указывает на создание или манипуляцию с помощью ИИ. Совет отменил решение компании и отметил, что ситуация показывает слабые места в нынешних правилах Meta. По словам совета: Meta должна серьёзнее относиться к лавине обманчивого ИИ‑контента, распространяемого, в том числе, сетями фейковых и злоупотребляющих аккаунтов, особенно в темах, представляющих общественный интерес. В итоге Meta всё же отключила три связанных с этим случаем аккаунта — только после того, как совет указал на очевидные признаки обмана.
Главная рекомендация совета — создать отдельное правило для ИИ‑контента, полностью отделённое от политики дезинформации. В этом правиле должны быть чётко прописаны требования к маркировке ИИ‑материалов и меры наказания за нарушения.
Совет также раскритиковал нынешние ярлыки «AI Info», отметив, что они применяются слишком непоследовательно и явно не справляются с масштабом распространения ИИ‑контента, особенно во время конфликтов и кризисов. Система, основанная в основном на добровольном указании факта использования ИИ и редких ручных проверках, просто не выдерживает нагрузки.
Meta, по мнению совета, нужно инвестировать в более надёжные технологии обнаружения ИИ‑медиа: аудио, видео и других форм. Дополнительную тревогу вызвали сообщения о том, что компания сама неровно использует цифровые водяные знаки в ИИ‑контенте, созданном собственными инструментами.
Meta пока не ответила на решение совета. У компании есть 60 дней, чтобы предоставить официальный ответ. Это не первый случай, когда Meta критикуют за её подход к ИИ‑контенту. Ранее правила компании относительно манипулированных медиа дважды называли «несогласованными». Кроме того, Meta продолжает полагаться на сторонних фактчекеров и других «доверенных партнёров» для выявления проблемных материалов — и это было предметом критики снова. Совет сообщает, что получил жалобы от этих партнеров: Meta стала хуже реагировать на обращения из‑за сокращения собственных внутренних ресурсов. Совет настаивает: компания должна уметь самостоятельно оценивать возможный вред, а не ждать, пока партнёры будут стучаться в дверь в самый разгар вооружённого конфликта.
Хотя дело относится к прошлогодней публикации, тема ИИ‑контента во время вооружённых конфликтов стала ещё острее на фоне нынешних событий на Ближнем Востоке. После начала ударов США и Израиля по Ирану в этом месяце соцсети захлестнули вирусные ИИ‑фальшивки. Совет, который ранее намекал, что хотел бы сотрудничать с разработчиками генеративного ИИ, добавил рекомендацию, которая очевидно относится ко всей индустрии: пользователям нужны понятные механизмы отличия реальности от фальсификаций, а платформы — обязаны ограничивать распространение таких материалов и бороться с сетями злоупотребляющих аккаунтов.
Meta снова оказалась в центре внимания — и, по старой традиции, вовсе не благодаря инновациям. История с ИИ‑роликом о «разрушенной Хайфе» показала, что компания не справляется даже с базовыми задачами, которые сама же на себя возложила.
Совет сдержанно пишет о необходимости реформ, но между строк читается усталость. Meta должна контролировать ИИ‑контент, но предпочитает перекидывать всё на сторонних фактчекеров, которые теперь жалуются на слабую связь. Сокращение команд внутри компании лишь усугубляет ситуацию — Meta стала реагировать медленнее, будто ждёт, что проблемы испарятся сами.
Особенно примечательна рекомендация создать отдельное правило для ИИ‑контента. Это фактически признание простого факта — старые механизмы борьбы с дезинформацией больше не работают. Мир меняется быстрее, чем Meta успевает обновлять внутренние инструкции.
Система маркировки «AI Info» выглядит ещё более печально. Она зависит от доброй воли авторов контента, а ручная проверка — редкий гость. В эпоху, когда ИИ‑генераторы производят фейки быстрее, чем пользователи успевают моргнуть, такая стратегия превращается в декоративную вывеску.
Ситуация обостряется на фоне конфликта на Ближнем Востоке. Именно в моменты кризисов слабые правила раскрываются наиболее ярко. Волна ИИ‑фейков, сопровождающая последние события, лишь подчёркивает: проблема системная.
Совет уже не пытается скрывать намёки: платформа обязана сама проводить оценку рисков, а не ждать, пока партнёры принесут список жалоб. Индустрия в целом тоже получает предупреждение — хаос ИИ‑контента требует совместных усилий.
Но Meta, кажется, снова будет тянуть с ответом свои положенные 60 дней. Как всегда — на грани между желанием выглядеть прогрессивной и нежеланием инвестировать в реальные инструменты контроля.