4 січня 2026 року OpenAI офіційно випустила друге покоління своєї моделі генерації відео — Sora 2.0. Головним проривом стала здатність моделі генерувати не лише відеоряд, а й синхронізоване аудіо (голос, музику та звукові ефекти) в єдиному процесі рендерингу.
Основні нововведення:
- Hyper-Realism Audio: Нейромережа тепер автоматично створює звуковий супровід, точно синхронізуючи рух губ персонажів з мовою та накладаючи інтершуми (звуки кроків, вітру, міста).
- Режим «Режисер»: Користувачі отримали можливість змінювати ракурси камери та освітлення у вже згенерованому відео без перемальовування всієї сцени.
- Швидкість генерації: Завдяки оптимізації архітектури, хвилинний ролик у роздільній здатності 1080p тепер створюється менш ніж за 30 секунд.
Реакція індустрії:
Експерти називають реліз Sora 2.0 «останнім цвяхом» у кришку труни стокових відеосервісів. Очікується, що в 2026 році до 40% рекламного відеоконтенту буде створюватися без використання камер.
Джерело: Прес-реліз OpenAI та демонстрація на виставці CES 2026.



