В Meta назвали «преждевременными» опасения насчет ИИ

Главный специалист по искусственному интеллекту в Meta Ян Лекун в интервью Financial Times назвал «преждевременными» опасения по поводу экзистенциальных рисков, связанных с технологией. 

При этом эксперт увидел негативные тенденции в слишком раннем регулировании. По его мнению, это усилит доминирование крупных технологических компаний и не оставит места для конкуренции.

«Регулирование исследований и разработок в области искусственного интеллекта невероятно контрпродуктивно», — подчеркнул Лекун.

Идею о том, что ИИ убьет человечество, он назвал «абсурдной»:

«Дебаты о экзистенциальном риске очень преждевременны, пока у нас не будет проекта системы, которая может соперничать даже с кошкой с точки зрения возможностей обучения, которых у нас на данный момент нет».

Ранее один из пионеров отрасли Джеффри Хинтон предупредил мир о потенциальных угрозах, связанных с технологией. До этого экс-глава Google Эрик Шмидт заявил, что ИИ представляет собой «экзистенциальный риск», из-за которого многие люди могут «пострадать или погибнуть».

В июне кинозвезда и экс-губернатор штата Калифорния Арнольд Шварценеггер провел параллели с реальным искусственным интеллектом и «Скайнетом» из фильма «Терминатор».

Напомним, в апреле президент США Джон Байден заявил, что риски ИИ еще не изучены. В тоже время в Еврокомиссии обеспокоились влиянием технологии на демократию. 

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version