Эксперты усомнились в «зарождении разума» у алгоритма Google
Ряд экспертов в области искусственного интеллекта подвергли сомнению заявления инженера компании Google Блейка Лемуана о наличии «разума» у алгоритма LaMDA. Об этом пишет Bloomberg.
По словам профессора компьютерной лингвистики Вашингтонского университета Эмили Бендер, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами.
«Проблема в том, что чем больше эта технология продается как искусственный интеллект — не говоря уже о чем-то разумном — тем больше людей готовы довериться ИИ-системам», — считает она.
В качестве примера Бендер привела программы по найму и оценки успеваемости студентов, которые могут содержать предрассудки в зависимости от используемого набора данных для обучения алгоритма. По ее словам, если допустить наличие разума в подобных системах, ИИ-разработчики могут дистанцироваться от прямой ответственности за любые недостатки или предубеждения в ПО:
«Фирма может сказать: “О, программа допустила ошибку”. Но нет, это ваша компания создала ПО. Это вы несете ответственность за ошибку. А дискурс о “разуме” является вредной практикой».
Генеральный директор стартапа AI Nara Logics Яна Эггерс заявила, что LaMDA может имитировать восприятие или чувства из данных обучения, которые ему предоставили:
«[Алгоритм] специально разработан так, чтобы казалось, что он понимает».
По словам исследователя Калифорнийского университета в Санта-Круз Макса Кремински, архитектура модели «просто не обладает некоторыми ключевыми возможностями человеческого сознания». Он добавил, если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, так как «веса развернутой нейросети заморожены».
Также алгоритм не может «думать» в фоновом режиме, считает ученый.
Профессор Технологического института Джорджии Марк Ридл сказал, что системы ИИ не осознают влияния своих ответов или поведения на общество. В этом и заключается уязвимость технологии, считает он.
«Система ИИ может не быть токсичной или предвзятой, однако она не понимает, что в некоторых обстоятельствах говорить о самоубийстве или насилии неуместно», — сказал Ридл.
Ранее Лемуан в одном из интервью рассказал, что обнаружил признаки «разума» у системы искусственного интеллекта LaMDA. Вскоре компания опровергла утверждения своего сотрудника и отправила его в оплачиваемый отпуск.
Напомним, в мае 2021 года Google представила разговорную модель LaMDA.
В мае 2022 года на конференции I/O компания анонсировала приложение AI Test Kitchen с LaMDA 2.
Подписывайтесь на ForkLog AI в TikTok!
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!