Alibaba начал работу над ИИ-генератором видео Tora 

Alibaba-min
Alibaba-min

Китайский технологический гигант Alibaba работает над Tora — инструментом для генерации видео на основе Sora. Об этом сообщает SCMP.

Его разрабатывают на базе архитектуры Diffusion Transformer (DiT), лежащей в основе представленной в феврале нейросети OpenAI.

Газета отмечает, что эксперты создали «ориентированный на траекторию DiT-фреймворк для генерации видео». Это означает, что создаваемые Tora движения точно следуют заданной траектории, воспроизводя динамику физического мира. 

«Мы адаптировали рабочий процесс OpenSora для преобразования необработанных видео в пары видео-текст высокого качества и использовали оптический оценщик потока для выделения траектории», — сказали они. 

Неизвестно, когда новый инструмент станет доступен для широкой публики. Ранее другие китайские компании представили собственные генераторы видео на основе ИИ.

24 июля модель Kling от Kuaishou стала доступна во всем мире. Позже стартап Zhipu представил свое решение — Ying.

В августе принадлежащая китайскому гиганту ByteDance (владеет TikTok) фирма Faceu Technology запустила нейросеть Jimeng AI для генерации видео из промптов.

Напомним, в феврале OpenAI представила новую генеративную модель искусственного интеллекта Sora, которая позволяет преобразовывать текст в видео. 

В июне компания Toys «R» Us столкнулась с волной критики после выпуска рекламы, полностью созданной с использованием инструмента от OpenAI.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK