Как ИИ моделирует мир по текстовому запросу

Автор: Серж Маршалл

OpenAI  (https://openai.com/sora) выпустили SORA— text2video модель.

"Мы учим ИИ понимать и моделировать физический мир в движении с целью создания обучающих моделей, которые помогают людям решать проблемы, требующие взаимодействия в реальном мире.

Представляем Sora, нашу модель преобразования текста в видео. Sora может создавать видеоролики продолжительностью до минуты, сохраняя при этом визуальное качество и соответствие подсказкам пользователя".

Промпт:
"Стильная женщина идет по токийской улице, залитой теплым неоновым светом и анимированными городскими вывесками. На ней черная кожаная куртка, длинное красное платье и черные ботинки, в руках черная сумочка. На ней солнцезащитные очки и красная помада. Она ходит уверенно и непринужденно. Улица влажная и отражающая, создавая зеркальный эффект разноцветных огней. По ней ходит много пешеходов".

И вот что получилось https://cdn.openai.com/sora/videos/tokyo-walk.mp4

А тут отрывок из фантастического фильма https://cdn.openai.com/sora/videos/mitten-astronaut.mp4

Промпт:
"Трейлер фильма о приключениях 30-летнего космонавта в красном шерстяном вязаном мотоциклетном шлеме, голубое небо, соленая пустыня, кинематографический стиль, снят на 35-миллиметровую пленку, яркие цвета".

***
Ждем, когда ИИ будет самостоятельно снимать фильм по проде МТА после выкладки текста на АТ.

+28
200

0 комментариев, по

677 85 384
Наверх Вниз