В соцсети выложили пример видеогенерации с закрытой презентации Sora от OpenAI — пользователи начали сравнивать его с доступными моделями
Результат представленной Sora «удивил» не всех.
- Художник и консультант OpenAI Чад Нельсон показал генерации модели Sora v2 на закрытой презентации C21Media Keynote в Лондоне, рассказал глава LontVideo Рууд ван дер Линден в сети X.
- Модель может генерировать видео длиной до минуты на основе текстовых запросов, изображений и других роликов. Чад Нельсон сообщил, что Sora представят «очень скоро».
Источник: Ruud van der Linden
- Пользователи пишут, что ожидали такого высокого качества «только через год» и называют это «большим скачком в создании видео по сравнению с китайскими моделями».
- На кадрах из презентации можно было увидеть промпт, по которому сгенерировано видео. В сети начали тестировать, как другие нейросети справляются с таким же запросом. Один из пользователей написал, что в китайской Hailuo уже можно сделать похожее видео, причём не замедленное, в отличие от Sora.
Источник: Machine Mythos
Генерация в Kling AI по текстовому запросу. Источник: Kol Tregaskes
Генерация в Kling AI из сгенерированного изображения. Источник: Kol Tregaskes
Генерация в Minimax. Источник: Stoff
Генерация в Luma. Источник: Kol Tregaskes
- 15 февраля 2024 года OpenAI представила ИИ-модель для генерации видео по текстовому запросу Sora. Она была доступна ограниченному числу художников, дизайнеров и режиссёров. Публичный релиз разработчики планировали провести до конца 2024 года.
- 26 ноября неизвестные смогли ненадолго выложить неофициальную версию модели в знак протеста против того, что «сотням художников не платят за выявление ошибок», а каждая публикация должна быть согласована с OpenAI.
- 4 декабря 2024 года OpenAI объявила, что в течение 12 дней будет анонсировать новые функции и продукты. В первый день представили полную версию модели с возможностью рассуждений o1 и новый тарифный план ChatGPT Pro за $200 в месяц.
46 комментариев