Как ИИ моделирует мир по текстовому запросу
Автор: Серж МаршаллOpenAI (https://openai.com/sora) выпустили SORA— text2video модель.
"Мы учим ИИ понимать и моделировать физический мир в движении с целью создания обучающих моделей, которые помогают людям решать проблемы, требующие взаимодействия в реальном мире.
Представляем Sora, нашу модель преобразования текста в видео. Sora может создавать видеоролики продолжительностью до минуты, сохраняя при этом визуальное качество и соответствие подсказкам пользователя".
Промпт:
"Стильная женщина идет по токийской улице, залитой теплым неоновым светом и анимированными городскими вывесками. На ней черная кожаная куртка, длинное красное платье и черные ботинки, в руках черная сумочка. На ней солнцезащитные очки и красная помада. Она ходит уверенно и непринужденно. Улица влажная и отражающая, создавая зеркальный эффект разноцветных огней. По ней ходит много пешеходов".
И вот что получилось https://cdn.openai.com/sora/videos/tokyo-walk.mp4
А тут отрывок из фантастического фильма https://cdn.openai.com/sora/videos/mitten-astronaut.mp4
Промпт:
"Трейлер фильма о приключениях 30-летнего космонавта в красном шерстяном вязаном мотоциклетном шлеме, голубое небо, соленая пустыня, кинематографический стиль, снят на 35-миллиметровую пленку, яркие цвета".
***
Ждем, когда ИИ будет самостоятельно снимать фильм по проде МТА после выкладки текста на АТ.