В США опубликовали новые стандарты безопасности ИИ
30 октября администрация президента США Джо Байдена опубликовала указ, устанавливающий новые стандарты безопасности и защиты искусственного интеллекта.
26 пунктов разделены на восемь групп, каждая из которых направлена на то, чтобы ИИ использовался для максимизации предполагаемых преимуществ и минимизации любых рисков. Кроме этого, реализация документа должна поставить США в авангарде определения барьеров для технологии и содействия продолжению исследований.
«Исполнительный указ […] защищает частную жизнь американцев, продвигает равенство и гражданские права, защищает интересы потребителей и работников, поощряет инновации и конкуренцию, способствует американскому лидерству во всем мире и многое другое», — говорится на сайте.
Документ требует от разработчиков «самых мощных» ИИ-систем делиться с правительством результатами испытаний на безопасность и «критической информацией». В целях обеспечения защиты и надежности технологии планируется разработать стандартизированные инструменты и тесты.
В документе говорится о росте «мошенничества и обмана с использованием искусственного интеллекта», необходимости создания инструментов для поиска и устранения уязвимостей в критически важном ПО, а также разработке меморандума о нацбезопасности. Последний призван определить в дальнейшем действия в области ИИ и безопасности.
«Без гарантий искусственный интеллект может еще больше подвергнуть риску частную жизнь американцев. ИИ не только упрощает извлечение, идентификацию и использование персональных данных, но и повышает стимулы к этому, поскольку компании используют данные для обучения систем ИИ», — говорится в указе.
Согласно документу, безответственное использование технологии может привести к дискриминации, предвзятости и другим злоупотреблениям.
В мае глава OpenAI Сэм Альтман выступил перед Конгрессом США и призвал правительство урегулировать использование и разработку искусственного интеллекта. Ранее исследователи компании предупредили о растущей угрозе использования языковых моделей для распространения дезинформации.
Напомним, в июне представители ООН заявили, что созданные ИИ дипфейки вредят целостности информации и приводят к разжиганию ненависти в обществе.
В свою очередь американские ученые призвали к противодействию дипфейкам, созданным «вражескими государствами».
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!