Эксперты обеспокоились ИИ-материалами с насилием над детьми

Evil_AI-min
Evil_AI-min

Британская компания по надзору за интернетом Internet Watch Foundation (IWF) сообщила о быстром распространении материалов с сексуальным насилием над детьми (CSAM), созданных с помощью искусственного интеллекта. 

Согласно отчету исследователей, всего за один месяц на одном из даркнет-форумах обнаружено более 20 254 изображений CSAM, сгенерированных ИИ. Из них более половины нарушали положения Великобритании о защите детей и другие законы.

Аналитики предупредили, что поток подобных материалов может «захлестнуть» сеть. 

«Злоумышленники могут легально загрузить все необходимое для создания этих изображений, а затем сгенерировать их столько, сколько захотят в автономном режиме без возможности отслеживания. Существуют различные инструменты для улучшения и редактирования подобных материалов, пока они не будут выглядеть именно так, как хочет преступник», — подчеркнули в IWF.

Большинство сгенерированных CSAM «достаточно реалистичны», заявили эксперты. Самые убедительные изображения с трудом сможет отличить даже опытный аналитик. 

В IWF отметили возросшую вероятность «повторной виктимизации» известных жертв сексуального насилия. Кроме того, исследователи обнаружили множество CSAM-изображений с детьми-знаменитостями. 

В отчете сказано, что новые технологии дали преступникам дополнительный способ заработка денег.

«Создание и распространение руководств по ИИ CSAM в настоящее время не является нарушением законодательства, но может стать таковым. Правовой статус  используемых для генерации изображений моделей — более сложный вопрос», — говорится в документе.

В сентябре организация предупредила, что группы педофилов обсуждают и обмениваются советами по созданию незаконных изображений с использованием ИИ-утилит с открытым исходным кодом, которые можно запускать локально на персональном компьютере. 

В IWF призвали к международному сотрудничеству для борьбы с CSAM. Инициатива подразумевает изменение законодательства, совершенствование подготовки сотрудников правоохранительных органов и установление нормативного надзора за моделями искусственного интеллекта.

Эксперты также рекомендовали разработчикам запретить использование ИИ для создания материалов о жестоком обращении с детьми, внести изменения в соответствующие языковые модели и отдать приоритет удалению подобного контента.   

Проблема генерируемых нейросетями незаконных материалов уже продолжительное время обсуждается в сообществе. Ранее президент Microsoft Брэд Смит предложил использовать систему KYC, созданную по образцу финансовых учреждений, для выявления преступников, использующих ИИ для распространения дезинформации и других неправомерных действий.

В июле штат Луизиана принял закон, ужесточающий наказание за продажу и хранение детской порнографии, созданной с помощью алгоритмов. За нарушение положений грозит тюремное заключение сроком от 5 до 20 лет и/или штраф в размере до $10 000.

В августе Министерство юстиции США обновило «Справочник для граждан по федеральному закону о детской порнографии». В нем уточняется, что изображения детской порнографии не защищены Первой поправкой и являются незаконными.

Напомним, в мае один из пионеров отрасли Джеффри Хинтон предупредил о потенциальных угрозах, связанных с ИИ. До этого экс-глава Google Эрик Шмидт заявил, что технология представляет собой «экзистенциальный риск», из-за которого многие люди могут «пострадать или погибнуть».

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK