В Китае разработали языковую модель, которая больше GPT-3 в десять раз

Пекинская академия искусственного интеллекта представила новую языковую модель WuDao 2.0. По словам разработчиков, она превосходит аналогичные технологии Google и OpenAI, пишет SCMP.

WuDao 2.0 использует 1,75 трлн параметров для имитации разговорной речи, написания текстов и понимания изображений. Она работает с китайским и английским языками благодаря изучению 4,9 терабайт различных данных.

«Эти сложные модели, обученные на огромных наборах данных, требуют лишь небольшого количества новой информации для запуска определенной функции. […] Они могут передавать знания в новые задачи, как и люди», — сказал исследователь искусственного интеллекта Блейк Ян.

Разработчики заявили, что побили рекорд компании Google, которая в январе 2021 года представила Switch Transformer с 1,6 трлн параметров. До этого крупнейшей языковой моделью была OpenAI GPT-3 со 175 млрд параметров.

Исследователи также сообщили, что уже нашли 22 партнеров, в числе которых производитель смартфонов Xiaomi, служба доставки Meituan и платформа для обмена короткими видео Kuaishou.

Напомним, в марте OpenAI заявила, что языковая модель GPT-3 генерирует 4,5 млрд слов ежедневно.

В январе OpenAI показала созданный на базе GPT-3 алгоритм DALL-E, который по текстовому описанию генерирует реалистичные изображения несуществующих вещей.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK