Ведущие ИИ-компании обязались проверять датасеты на наличие материалов CSAM

AI fake news фейки
AI fake news фейки

Техгиганты вроде Google, Meta, OpenAI, Microsoft и Amazon согласились принять меры по предотвращению использования материалов о сексуальном насилии над детьми (CSAM) в обучающих наборах данных для искусственного интеллекта.

Компании подписали новый набор принципов, призванных ограничить распространение подобного контента. Они пообещали:

  • гарантировать, что обучающие наборы данных не содержат CSAM;
  • избегать датасеты с высоким риском включения вредных материалов;
  • удалять изображения CSAM или ссылки на них из источников данных.

Компании также обязались проводить «стресс-тестирование» моделей ИИ. Это позволит убедиться, что они не генерируют изображения CSAM.

Выпускать новые модели разработчики смогут лишь в том случае, если они прошли оценку на предмет детской безопасности. 

В число подписавших соглашение входят также Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI.

ИИ усугубил проблему распространения CSAM

Генеративный ИИ способствовал росту обеспокоенности по поводу дипфейков, в том числе распространению в сети поддельных фотографий CSAM. В декабре 2023 года исследователи Стэнфорда опубликовали доклад, в котором обнаружили, что популярный набор данных для обучения ИИ содержит ссылки на подобные изображения. 

Они также выяснили, что телефонная линия Национального центра помощи пропавшим и эксплуатируемым детям (NCMEC) оказалась перегруженной изображениями CSAM, созданными искусственным интеллектом. 

Некоммерческая организация Thorn утверждает, что ИИ-изображения помешают усилиям по выявлению жертв. Также это может создать дополнительный спрос на материалы CSAM, способствовать виктимизации детей, а также облегчить поиск информации о том, как делиться проблемными материалами.

Помимо принятия новых обязательств, Google также пообещала увеличить рекламные гранты для NCMEC. Вице-президентка компании по решениям в области доверия и безопасности Сьюзан Джаспер отметила, что поддержка этих инициатив повышает осведомленность общественности и дает людям инструменты для выявления и сообщения о злоупотреблениях.

Напомним, в октябре 2023 года британские эксперты сообщили о быстром распространении материалов CSAM, созданных с помощью искусственного интеллекта. 

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK