Глава Anthropic призвал ИИ-компании проверять безопасность нейросетей

ии-стартап Anthropic AI
ии-стартап Anthropic AI

CEO Anthropic Дарио Амодеи призвал другие ИИ-компании проводить обязательное тестирование безопасности нейросетей перед их публичным выпуском. Об этом пишет Bloomberg.

«Я думаю, что мы должны сделать тестирование обязательным, но также важно быть очень осторожными в том, как это делать», — сказал он. 

По словам главы ИИ-стартапа, существует ряд добровольно принятых правил безопасности, с которыми согласились крупные фирмы. Однако необходимы более четкие стандарты. 

«Нет ничего, что позволило бы проверить или убедиться следованию правилам со стороны компании. Они просто сказали, что будут это делать», — подчеркнул он.

Амодеи добавил, что стартапы пошли на соблюдение ряда стандартов под влиянием общественности и работников, но в конечном итоге этого окажется недостаточно. В то же время требования к тестированиям должны оставаться «гибкими», чтобы учитывать темпы изменения технологий.

В ноябре Anthropic открыла свои ИИ-продукты разведывательным и оборонным агентствам США. Ранее Meta пошла на аналогичный шаг.

Напомним, в том же месяце Амодеи заявил, что искусственный интеллект достигнет человеческого уровня в 2026 году.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK