Прорывной генератор Runway оживляет персонажей по референсу с видео

Компания Runway, один из ключевых игроков рынка генеративных видео и анимаций, объявила о запуске модели нового поколения — инструмента захвата движений Act-Two.

Оставить комментарий

Модель Runway Act-Two способна «оживлять» изображение или персонажа, используя референсное видео с движениями человека. Система поддерживает широкий спектр стилей, персонажей и окружений, а основное преимущество — высокий уровень достоверности изображения. Технология подходит для киноиндустрии, рекламы и видеоигр, где традиционные способы захвата движения требуют значительных затрат и сложной организации процесса.

Для создания анимации пользователю нужно загрузить видео с человеком (референс движений) и изображение или видео персонажа. В зависимости от типа референса Act-Two может анимировать как только персонажа, так и окружающую среду. Длина генерируемого ролика может достигать 30 секунд, создание одной секунды видео стоит пять кредитов (минимум — три секунды).

На старте Act-Two доступна для корпоративных клиентов и партнеров Runway — авторов контента и студий. Широкому кругу пользователей обещают открыть доступ в ближайшее время. Runway конкурирует с такими проектами, как Moonvalley’s Marey и workflow-инструментами на базе ИИ в Premiere Pro и DaVinci Resolve. Появление подобных решений обещает удешевить и ускорить создание анимаций, а также сделать технологию захвата движения доступнее.

Цукерберг: разработчики ИИ хотят двух вещей, и это не деньги
По теме
Цукерберг: разработчики ИИ хотят двух вещей, и это не деньги
Новый тренд в программировании: ИИ-кодинг переходит из редакторов в терминал
По теме
Новый тренд в программировании: ИИ-кодинг переходит из редакторов в терминал
ИИ не понимает fail-видео — и проваливает тест, который проходят дети
По теме
ИИ не понимает fail-видео — и проваливает тест, который проходят дети

Читать на dev.by