В США опубликовали новые стандарты безопасности ИИ

30 октября администрация президента США Джо Байдена опубликовала указ, устанавливающий новые стандарты безопасности и защиты искусственного интеллекта.

26 пунктов разделены на восемь групп, каждая из которых направлена ​​на то, чтобы ИИ использовался для максимизации предполагаемых преимуществ и минимизации любых рисков. Кроме этого, реализация документа должна поставить США в авангарде определения барьеров для технологии и содействия продолжению исследований.

«Исполнительный указ […] защищает частную жизнь американцев, продвигает равенство и гражданские права, защищает интересы потребителей и работников, поощряет инновации и конкуренцию, способствует американскому лидерству во всем мире и многое другое», — говорится на сайте. 

Документ требует от разработчиков «самых мощных» ИИ-систем делиться с правительством результатами испытаний на безопасность и «критической информацией». В целях обеспечения защиты и надежности технологии планируется разработать стандартизированные инструменты и тесты.

В документе говорится о росте «мошенничества и обмана с использованием искусственного интеллекта», необходимости создания инструментов для поиска и устранения уязвимостей в критически важном ПО, а также разработке меморандума о нацбезопасности. Последний призван определить в дальнейшем действия в области ИИ и безопасности. 

«Без гарантий искусственный интеллект может еще больше подвергнуть риску частную жизнь американцев. ИИ не только упрощает извлечение, идентификацию и использование персональных данных, но и повышает стимулы к этому, поскольку компании используют данные для обучения систем ИИ», — говорится в указе.

Согласно документу, безответственное использование технологии может привести к дискриминации, предвзятости и другим злоупотреблениям. 

В мае глава OpenAI Сэм Альтман выступил перед Конгрессом США и призвал правительство урегулировать использование и разработку искусственного интеллекта. Ранее исследователи компании предупредили о растущей угрозе использования языковых моделей для распространения дезинформации.

Напомним, в июне представители ООН заявили, что созданные ИИ дипфейки вредят целостности информации и приводят к разжиганию ненависти в обществе.

В свою очередь американские ученые призвали к противодействию дипфейкам, созданным «вражескими государствами».

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version