Исследование: модификация фотографий не защищает от систем распознавания лиц

face_recognition-01
face_recognition-01

Ученые из Стэнфорда, Университета штата Орегон и Google выяснили, что манипуляция с фотографиями на пиксельном уровне не защитит от систем распознавания лиц.

Исследователи протестировали две программы «отравления» данных: Fawkes и LowKey, которые тонко изменяют изображения на уровне пикселей. Такие модификации незаметны глазу, однако они способны сбить с толку систему распознавания лиц.

Оба инструмента находятся в свободном доступе, что является их главной проблемой, считают авторы. Благодаря этому разработчики систем распознавания лиц могут научить свои модели игнорировать «отравления».

«Адаптивное обучение модели с доступом к черному ящику [программ модификации фотографий] может немедленно обучить надежную модель, устойчивую к отравлению», — сказали ученые.

По их словам, оба инструмента продемонстрировали низкую эффективность против версий программного обеспечения для распознавания лиц, выпущенных в течение года после их появления в сети.

Кроме этого, исследователи опасаются создания более совершенных алгоритмов идентификации, которые изначально смогут игнорировать изменения в фотографиях.

«Существует еще более простая защитная стратегия: создатели моделей могут просто ждать более совершенных систем распознавания лиц, которые больше не уязвимы для этих конкретных атак», — говорится в документе.

Авторы исследования подчеркнули, что модификация данных для предотвращения биометрической идентификации не только не обеспечивает безопасность, но и создает ложное чувство защищенности. Это может нанести вред пользователям, которые в противном случае не размещали бы фотографии в сети.

Исследователи заявили, что единственный способ защитить конфиденциальность пользователей в интернете — принятие законодательства, ограничивающего использование систем распознавания лиц.

Напомним, в мае 2021 года инженеры представили бесплатные инструменты Fawkes и LowKey для защиты от алгоритмов биометрической идентификации.

В апреле стартап DoNotPay разработал сервис для защиты изображений от систем распознавания лиц Photo Ninja.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK