OpenAI профинансировала исследование «ИИ-морали»

OpenAI финансирует научные исследования алгоритмов, способных предсказывать моральные суждения людей. Об этом пишет TechCrunch со ссылкой на поданное в IRS заявление. 

Стартап выделил грант исследователям Университета Дьюка на проект под названием «Исследование ИИ-морали». 

Подробностей о работе мало, а главный исследователь Уолтер Синнотт-Армстронг отказался комментировать достижения. Грант заканчивается в 2025 году. 

Ранее Синнотт-Армстронг и другая участница проекта Яна Борг написали книгу о потенциале ИИ в качестве «морального GPS», помогающего людям принимать более обоснованные решения. 

Вместе с другими командами они создали «морально ориентированный» алгоритм, помогающий решать, кому лучше отдать донорские почки. Также они оценили ситуации, когда люди предпочли бы делегировать ИИ принятие решения. 

Цель финансируемой OpenAI работы заключается в обучении алгоритмов для «предсказаний моральных суждений человека» в ситуациях, вызывающих конфликты в медицинской, правовой и деловой сферах.

Напомним, стартап Сэма Альтмана готовится к запуску ИИ-агента под кодовым названием «Оператор».

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version