Ученые разработали инструмент для разоблачения дипфейков

Исследователи из Университета Баффало разработали инструмент на основе искусственного интеллекта, который по отражению света в роговице глаза способен распознать дипфейк-фотографию. Ученым удалось добиться точности в 94%, пишет The Next Web со ссылкой на результаты работы.

Они обнаружили, что на реальных фотографиях людей отражения в роговицах, как правило, идентичны. Но дипфейк-изображения, синтезированные с помощью [simple_tooltip content=’Генеративно-состязательная сеть – метод машинного обучения, состоящий из двух нейросетей: генератора, который создает контент, и дискриминатора, который его оценивает. Часто используется для создания правдоподобных изображений, видео и аудиозаписей’]GAN[/simple_tooltip], зачастую не могут передать это сходство.

Ученые разработали инструмент для разоблачения дипфейков

Разница отражения света в роговице глаза человека на настоящей и сгенерированной фотографии. Данные: исследование группы ученых Университета Баффало.

Алгоритм ученых позволяет находить эти несоответствия, анализируя свет, отраженный в каждом глазном яблоке. Он генерирует оценку, которая служит метрикой сходства. Чем меньше балл, тем больше вероятность, что лицо на фотографии создала нейросеть.

Ученые разработали инструмент для разоблачения дипфейков

Оценка степени сходства отражений в каждом глазном яблоке. Данные: исследование группы ученых Университета Баффало.

Система оказалась эффективной при обнаружении поддельных фотографий, взятых из This Person Does Not Exist – репозитория изображений, созданных с помощью архитектуры StyleGAN2. Однако авторы исследования признают, что у нее есть несколько ограничений.

Алгоритм распознавания подделок использует источник света, отраженный обоими глазами. Это несоответствие можно исправить с помощью ручной постобработки фотографии, а метод не сработает, если один глаз не виден на изображении.

Ученые также отметили, что их алгоритм эффективен только для портретных фото. Если лицо на картинке не смотрит в камеру, система, скорее всего, выдаст ложные срабатывания.

Исследователи планируют изучить эти проблемы, чтобы повысить эффективность метода.

Напомним, ранее в США задержали женщину за распространение дипфейк-видео девушек-подростков. Таким образом она хотела скомпрометировать соперниц своей дочери в группе черлидинга.

В декабре прошлого года британский телеканал Channel 4 выпустил дипфейк королевы Елизаветы II в качестве альтернативного рождественского поздравление.

Подписывайтесь на новости ForkLog в Telegram: ForkLog Feed — вся лента новостей, ForkLog — самые важные новости и опросы.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK