

Исследователи из ByteDance представили ИИ-модель OmniHuman-1 для генерации реалистичных видео.
Она анимирует статичные изображения, превращая их в «живые» ролики, добавляя движение и речь. ИИ может создавать естественные человеческие движения в масштабе.
В последние годы сквозная человеческая анимация претерпела заметные улучшения. Однако существующие методы по-прежнему с трудом масштабируются в качестве больших общих моделей генерации видео, что ограничивает их потенциал в реальных приложениях.
— ByteDance
Компания обучила модель на 18 700 часах человеческих видеоданных, используя новый подход, который объединяет несколько типов входных данных: текст, аудио и движения тела. Отмечается, что на данный момент это самый продвинутый ИИ для создания подобных видео. [РИА Новости]