В Китае разработали языковую модель, которая больше GPT-3 в десять раз
Пекинская академия искусственного интеллекта представила новую языковую модель WuDao 2.0. По словам разработчиков, она превосходит аналогичные технологии Google и OpenAI, пишет SCMP.
WuDao 2.0 использует 1,75 трлн параметров для имитации разговорной речи, написания текстов и понимания изображений. Она работает с китайским и английским языками благодаря изучению 4,9 терабайт различных данных.
«Эти сложные модели, обученные на огромных наборах данных, требуют лишь небольшого количества новой информации для запуска определенной функции. […] Они могут передавать знания в новые задачи, как и люди», — сказал исследователь искусственного интеллекта Блейк Ян.
Разработчики заявили, что побили рекорд компании Google, которая в январе 2021 года представила Switch Transformer с 1,6 трлн параметров. До этого крупнейшей языковой моделью была OpenAI GPT-3 со 175 млрд параметров.
Исследователи также сообщили, что уже нашли 22 партнеров, в числе которых производитель смартфонов Xiaomi, служба доставки Meituan и платформа для обмена короткими видео Kuaishou.
Напомним, в марте OpenAI заявила, что языковая модель GPT-3 генерирует 4,5 млрд слов ежедневно.
В январе OpenAI показала созданный на базе GPT-3 алгоритм DALL-E, который по текстовому описанию генерирует реалистичные изображения несуществующих вещей.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!