Эксперты сравнили будущий ИИ с пандемиями и ядерными войнами

Evil_AI-min
Evil_AI-min

Лидеры отрасли предупредили, что искусственный интеллект может представлять собой «экзистенциальную угрозу» человечеству. Его нужно рассматривать как глобальный риск наравне с пандемиями и ядерными войнами, считают эксперты.

Открытое письмо длиной 22 слова некоммерческой исследовательской организации Center for AI Safety подписали более 350 руководителей, ученых и инженеров, работающих в области ИИ.

Согласно заявлению, отраслевые эксперты, журналисты, политики и общественность все чаще обсуждают широкий спектр важных и неотложных рисков, связанных с технологией.

«Иногда трудно выразить озабоченность касательно некоторых наиболее серьезных угроз передового ИИ. Письмо поможет преодолеть это препятствие и открыть дискуссию», — говорится в заявлении.

Среди подписантов CEO трех ведущих компаний в области искусственного интеллекта: Сэм Альтман (OpenAI), Демис Хассабис (Google DeepMind) и Дарио Амодеи (Anthropic).

К ним присоединились «крестные отцы ИИ» Джеффри Хинтон и Йошуа Бенджио. Письмо также подписал вице-президент Meta и ведущий ИИ-специалист компании Ян ЛеКун.

Напомним, в марте более 1000 экспертов в области искусственного интеллекта призвали на шесть месяцев приостановить обучение языковых моделей мощнее GPT-4.

Позже другие ИИ-специалисты раскритиковали эту идею.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK