Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Sora теперь позволяет пользователям лучше управлять цифровыми копиями себя – так называемыми AI-двойниками, которые появляются в автоматически сгенерированных видео. Этот шаг сделан на фоне того, как компания OpenAI пытается убедить всех вокруг, будто ей есть дело до вашей приватности и здоровья интернета: ведь лавина низкосортного AI-контента давно стучится в двери.
Новые настройки появились вместе с серией обновлений, направленных на стабилизацию работы Sora и попытку обуздать хаос на её главной ленте. Для непосвящённых: Sora – это некое подобие TikTok, только для дипфейков. Здесь можно сделать десятисекундное видео кого угодно, хоть себя, хоть знакомых, хоть вообще выдуманного персонажа (голос прилагается). OpenAI называет эти цифровые появления «камео». Критики просто говорят: новый инструмент для создания фейков и дезинформации.
Билл Пиблс, руководитель Sora, рассказал, что теперь пользователи смогут ограничить использование своей AI-копии: можно запретить использовать себя в политических роликах, запретить говорить отдельные слова или даже, если у вас аллергия на горчицу, не сниматься рядом с этим «продуктом». Это не шутка – такие детали реально настраиваются.
Сотрудник OpenAI Томас Димсон добавляет: вы теперь можете заставить свой виртуальный двойник носить забавную кепку с надписью «#1 Любитель кетчупа» в каждом ролике (если вдруг по ночам снится томатный соус).
Ограничения радуют, но опыт общения с другими AI, вроде ChatGPT и Claude, давно показал: желающие всегда найдут, как обойти запреты. Уже сейчас некоторые пользователи Sora научились обходить водяные знаки – фирменный инструмент невидимости. Пиблс признаёт: работают над усилением защиты, обещают «доползти до новых высот» в плане ограничений – как в лучших традициях IT-бюрократии.
С момента запуска Sora засыпала интернет автоматическим мусором: AI-камео самих себя, знакомых, знаменитостей. До этого доступа к контролю практически не было – максимум можно было выбрать круг лиц: знакомые, утверждённые или, вообще, все подряд. На платформе уже прославился, сам не подозревая, генеральный директор OpenAI – Сэм Альтман. Его AI-двойник уже успел появиться в массе странных мемов, где он ворует, читает рэп или готовит жареного Пикачу.
Но теперь пользователи получили хоть какие-то инструменты, как спастись от цифровых клонов и очередного шквала AI-бреда. Будет ли толк – покажет очередная волна мемов.
Sora под предводительством OpenAI делает ещё один широкий жест навстречу обеспокоенной публике — теперь у пользователя есть якобы настоящий шанс управлять своим AI-альтер-эго. Всё это украшено суровыми заявлениями о новых настройках: можно, например, запретить «себе» сниматься в политических роликах или склоняться к особо едким приправам вроде горчицы. Но на деле эти барьеры и фильтры — фикция: уже на старте «продвинутые пользователи» выяснили, что все меры обходятся, а главное шоу разворачивается вокруг беспомощных попыток команды Sora настроить систему, когда интернет буквально заливает цифровой мусор.
В этом бушующем водовороте мемов сам Сэм Альтман, руководитель OpenAI и, случайно, главный герой комичных видеороликов с AI-дублером, воплощает собой новый уровень абсурда. Теперь его цифровая проекция варит, крадет, поет хип-хоп — всё, кроме осмысленных шагов по контролю за новыми технологиями. Пытаясь не захлебнуться в лавине фейков и дезинформации, команда OpenAI привычно обещает «усовершенствовать и усилить» контроль — ведь IT-гигант не может лишать пользователей веры до последней кнопки на панели настроек.
Публика же болезненно наблюдает за парадом новых «барьеров», ловко преодолеваемых гиками, и готовится к следующей волне вредоносного юмора и цифровых подделок. В итоге, привычное раздвоение: для публики — иллюзия новых возможностей, для экспертов — тот самый шоурум бесполезных попыток обуздать собственные чудовища.