Стартап Runway сообщил, что его последняя модель генерации видео на основе искусственного интеллекта может создавать последовательные сцены и персонажей в нескольких кадрах. AI-сгенерированные видео часто сталкиваются с проблемами, связанными с поддержанием непрерывного повествования, но Runway утверждает на платформе X, что новая модель, Gen-4, должна предоставить пользователям больше "непрерывности и контроля" при создании историй.
Сейчас новая модель видео-синтеза Gen-4 доступна для платных и корпоративных пользователей, позволяя генерировать персонажей и объекты в различных кадрах, используя одно эталонное изображение. Пользователи должны описать желаемую композицию, а модель затем создаст последовательные результаты с разных ракурсов.
В качестве примера стартап выпустил видео, на котором женщина сохраняет свой внешний вид в различных кадрах и контекстах при различных условиях освещения.
Этот релиз состоялся менее чем через год после того, как Runway анонсировала генератор видео Gen-3 Alpha. Эта модель позволила увеличить длину видео, которые пользователи могли создавать, но также вызвала споры, так как, по сообщениям, была обучена на тысячах скачанных видео с YouTube и пиратских фильмов.