Ученые обманули систему распознавания лиц с помощью естественного макияжа

AI_Hacks-min
AI_Hacks-min

Группа ученых совместно с японской корпорацией NEC провела лабораторный эксперимент, в процессе которого попыталась обмануть систему распознавания лиц, нанеся естественный макияж на испытуемых.

По словам исследователей, натуральный грим трудно заметить невооруженным глазом и его использование не вызовет подозрений.

«Наш метод находит естественный макияж, который при нанесении на лицо злоумышленника скрывает его или ее личность от системы распознавания лиц», — утверждают они.

Ученые загрузили в суррогатную модель фотографии «запрещенных» людей для создания тепловой карты, на которой выделяются наиболее важные участки для системы идентификации конкретного человека. Затем на эти области они нанесли макияж, чтобы изменить внешний вид участников.

Например, с помощью пудры они сузили нос, а контурная пластика сделала скулы выразительней.

Исследователи повторяли этот процесс до тех пор, пока им не удалось обмануть модель.

Ученые обманули систему распознавания лиц с помощью естественного макияжа
Суррогатная модель отметила известного участника как неизвестного после нанесения макияжа. Данные: исследование.

В небольшом эксперименте, проведенном на десяти мужчинах и десяти женщинах в возрасте от 20 до 28 лет, камеры распознавания лиц смогли правильно идентифицировать «запрещенных» людей с нанесенным макияжем в 1,22% случаев.

Исходная модель сама по себе не отличается высокой точностью. Согласно исследованию, она смогла правильно определить участников без макияжа только в 47,57% случаев, тогда как при нанесении косметики случайным образом показатель упал до 33,73%.

Ученые утверждают, что падение производительности системы распознавания лиц с нанесенным макияжем «ниже разумного порога реалистичной операционной среды».

Напомним, в августе ученые сгенерировали снимок «универсального лица», способный обмануть большинство систем биометрической идентификации.

В июле исследователи сообщили об обнаружении метода незаметного внедрения вредоносного кода в нейросети.

В мае исследователи из Центра кибербезопасности Мэриленда выявили уязвимость в нейронных сетях, увеличивающую их энергопотребление.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK