Исследователи упростили процесс создания дипфейков

deep fake (2)-min
deep fake (2)-min

Группа китайских и американских исследователей разработала алгоритм создания дипфейков CihaNet, устраняющий проблему маскировки краев при смене лиц. Это делает подделку более реалистичной.

По словам разработчиков, для CihaNet не требуются большие и исчерпывающие наборы данных, а обучение происходит в считанные дни вместо недель.

Например, в эксперименте исследователи использовали два популярных датасета с изображениями знаменитостей и один графический процессор NVIDIA Tesla P40. Такая конфигурация позволила обучить нейросеть реалистично подменивать лица всего за три дня.

Исследователи упростили процесс создания дипфейков
Пример подмены лица автора работы на актрису Скарлетт Йоханссон. Данные: Mingcan Xiang.

Новый подход устраняет необходимость грубо «вставлять» трансплантированную личность в целевое видео, что часто приводит к характерным артефактам, которые появляются на границах двух лиц. Это позволило избежать дальнейшей постобработки видео, что существенно экономит время и ресурсы, говорится в работе.

Исследователи упростили процесс создания дипфейков
Сравнение существующих методов и CihaNet. Данные: Unite.AI.

Для достижения таких результатов исследователи использовали «карту галлюцинаций». По их словам, это позволяет алгоритму определять контекст намного эффективнее и смешивать лица на более глубоком уровне.

Исследователи упростили процесс создания дипфейков
Дипфейки, созданные с использованием «карт галлюцинации». Данные: Unite.AI.

Представленная модель, в отличие от метода жесткого наложения масок, может осуществлять подмену лица между двумя фотографиями, сделанными с разных ракурсов.

Исследователи упростили процесс создания дипфейков
Метод наложения лиц на фотографии, снятые с разных ракурсов. Данные: Unite.AI.

Исследователи не сообщили о планах выпуска инструмента в публичный доступ.

Напомним, в октябре разработчик программного обеспечения Adobe представил инструменты для оживления фотографий и создания дипфейков.

В сентябре ученые рассказали, как отличить поддельные фото от реальных.

В апреле генеральный директор компании Pinscreen заявил, что количество дипфейков в интернете удваивается раз в шесть месяцев.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK