4 января 2026 года OpenAI официально выпустила второе поколение своей модели генерации видео — Sora 2.0. Главным прорывом стала способность модели генерировать не только видеоряд, но и синхронизированное аудио (голос, музыку и звуковые эффекты) в едином процессе рендеринга.
Основные нововведения:
- Hyper-Realism Audio: Нейросеть теперь автоматически создает звуковое сопровождение, точно синхронизируя движение губ персонажей с речью и накладывая интершумы (звуки шагов, ветра, города).
- Режим «Режиссер»: Пользователи получили возможность менять ракурсы камеры и освещение в уже сгенерированном видео без перерисовки всей сцены.
- Скорость генерации: Благодаря оптимизации архитектуры, минутный ролик в разрешении 1080p теперь создается менее чем за 30 секунд.
Реакция индустрии:
Эксперты называют релиз Sora 2.0 «последним гвоздем» в крышку гроба стоковых видеосервисов. Ожидается, что в 2026 году до 40% рекламного видеоконтента будет создаваться без использования камер.
Источник: Пресс-релиз OpenAI и демонстрация на выставке CES 2026.



