Эмоциональный ИИ — будущий тренд?

AI fake news фейки
AI fake news фейки

Способный понимать чувства людей «эмоциональный ИИ» может стать следующим трендом нейросетей. Об этом говорится в отчете исследовательской фирмы PitchBook.

Эксперты отмечают, что если компании внедряют ИИ-помощников для руководителей и сотрудников, ставят чат-ботов на должность продавцов и в службу поддержки, искусственный интеллект должен понимать разницу между гневным и растерянным сообщением с одним текстом, таким как: «Что вы имеете в виду?».

Эмоциональный ИИ — технология анализа человеческих эмоций, которая использует камеру, диктофон и другие инструменты для понимания настроения пользователя. Они могут быть на ноутбуке, смартфоне или расположены отдельно.

«С распространением ИИ-помощников и полностью автоматизированных взаимодействий человек — машина эмоциональный ИИ обещает обеспечить реалистичные интерпретации и реакции», — написал старший аналитик по новым технологиям PitchBook Дерек Эрнандес.

Крупные ИИ-провайдеры вроде Microsoft Azure и Amazon Web Services предлагают разработчикам доступ к возможностям эмоциональных ИИ. Внезапный рост количества применяемых ботов дает технологии больше шансов развиться в корпоративном мире, говорится в отчете PitchBook.

Напомним, в мае OpenAI анонсировал «более человечную» версию чат-бота GPT-4о, которая способна распознавать эмоции и ритм дыхания.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK