Agibot представила ИИ для гуманоидов

robodogs_cape_can-min

Компания Agibot запустила ИИ-модель Genie Operator-1 (GO-1) для гуманоидных роботов. Она позволяет быстро понимать и выполнять задачи. 

Основанная экс-сотрудником Huawei Пэн Чжихуэйем фирма представила нейросеть, предназначенную для использования в качестве мозга у роботов и помощи в обучении и адаптации.

«Боты больше не будут ограничиваться лабораториями, а смогут адаптироваться к изменяющимся условиям реального мира. Они будут понимать инструкции на естественном языке и рассуждать, не ограничиваясь заранее запрограммированными процедурами», — говорится в заявлении Agibot.

В основе GO-1 лежат основанные на зрении модели, которые передают гуманоидам большие объемы изображений и видео для лучшего понимания действий человека. Алгоритмы планирования помогают роботу продумывать шаги и выполнять движения для выполнения поставленных задач.

Разработанная система способна обучаться по видео. В демонстрационном ролике гуманоиды готовят и подают тосты, раздают бейджи, наливают кофе. По информации Agibot, машины компании благодаря новому ИИ стали лучше выполнять задачи.

YouTube video player

Ранее Figure представила искусственный интеллект собственной разработки Helix для интеграции с роботами. По словам создателей, модель способна «рассуждать как человек».  

Напомним, компания вышла из соглашения о сотрудничестве с OpenAI после совершения «значительного прорыва» в разработке искусственного интеллекта для гуманоидов. 

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version