В Австралии искусственный интеллект научат распознавать насилие над детьми

Федеральная полиция Австралии и Университет Монаша попросили пользователей поделиться своими детскими снимками, чтобы научить искусственный интеллект выявлять жестокое обращение на фотографиях.

Исследователи собирают изображения людей в возрасте до 17 лет в безопасных ситуациях. По их словам, фотографии не должны содержать наготы даже в относительно безобидных сценариях вроде принимающего ванну ребенка.

Изображения соберут в набор данных для обучения модели ИИ различать несовершеннолетнего в нормальной среде и эксплуатируемой, небезопасной ситуации. Исследователи считают, что программное обеспечение поможет правоохранителям быстро выявлять материалы о сексуальном насилии над детьми среди тысяч исследуемых фотографий, избегая ручной проверки.

По словам старшего констебля австралийской федеральной полиции Дженис Далинс, искусственный интеллект потенциально может выявлять жертв и обнаруживать незаконные материалы, ранее не известные офицерам.

«В 2021 году Австралийский центр по борьбе с эксплуатацией детей получил более 33 000 сообщений об эксплуатации детей в интернете, и каждое сообщение может содержать большие объемы изображений и видео», — сказал он.

Далинс добавил, что просмотр таких материалов — трудоемкий процесс. Также ручной анализ может причинить психологический стресс следователям.

По словам исследователей, краудсорсинговый сбор фотографий позволит создать непредвзятый набор данных.

«Получение изображений из интернета проблематично, поскольку нет возможности узнать, действительно ли дети на этих фотографиях дали согласие на загрузку своих снимков или использование их для исследования», — заявил содиректор AiLECS и доцент Университета Монаша Кэмпбелл Уилсон.

Краудсорсинговая кампания My Pictures Matter открыта для совершеннолетних лиц, дающих согласие на использование своих фотографий. Пользователям также необходимо предоставить адрес электронной почты.

Руководитель проекта и научный сотрудник лаборатории Нина Льюис подчеркнула, что никакая другая информация, идентифицирующая пользователя, собираться не будет. Адреса электронной почты хранятся в отдельной базе данных, добавила она.

«Изображения, используемые исследователями, не могут раскрывать какую-либо личную информацию о людях, которые изображены», — сказала она.

Участникам предоставят обновления на каждом этапе проекта, и они могут попросить удалить свои изображения из набора данных, если захотят.

Напомним, в ноябре 2021 года австралийские власти запретили Clearview AI собирать данные граждан.

В августе компания Apple рассказала о планах внедрить инструмент для сканирования фотографий пользователей на предмет жестокого обращения с детьми в iOS, iPadOS и macOS.

Позже компания отложила запуск функции на неопределенный срок.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version