Ученые призвали мировое сообщество урегулировать дипфейки

deepfake_expl-min
deepfake_expl-min

Американские ученые предупредили о растущих усилиях «вражеских государств» по созданию дипфейков. Об этом пишет The Register.

Согласно исследователям из Северо-Западного университета и Института Брукингса, на сегодня доступно множество инструментов для создания ИИ-подделок.

«Легкость, с которой могут быть разработаны дипфейки для конкретных людей и целей, а также их быстрое распространение, […] указывают на мир, в котором все государства и негосударственные субъекты смогут использовать дипфейки в операциях по обеспечению безопасности и разведке», — заявили авторы доклада.

По словам ученых, ИИ-генераторы вроде Stable Diffusion уже адаптируют для создания ложных видеороликов. С каждой итерацией технологии дипфейки выглядят все более реалистичными и убедительными, добавили они.

Согласно отчету, иностранные «противники» будут использовать такие системы для проведения дезинформационных кампаний и распространения фальшивых новостей. Таким образом они смогут сеять путаницу, распространять пропаганду и подрывать доверие в интернете, считают исследователи.

Также ожидается, что «вражеские государства» смогут использовать ИИ в рамках военных и разведывательных операций по мере совершенствования технологий.

Исследователи призвали правительства всего мира ввести политику, регулирующую использование ИИ-подделок.

«В долгосрочной перспективе нам необходимо глобальное соглашение об использовании дипфейков оборонными и спецслужбами», — сказал один из соавторов исследования.

Однако такая мера все равно не гарантирует полную безопасность. Эксперты считают, что разработка международных правил может быть затруднена из-за «национальных государств, обладающих правом вето».

«Даже если такое соглашение будет достигнуто, некоторые страны, вероятно, его нарушат. Поэтому такое соглашение должно включать механизм санкций для сдерживания и наказания нарушителей», — считают исследователи.

Разработки технологий обнаружения дипфейков также недостаточно, заявили ученые. По их словам, это будет похоже на игру в кошки-мышки, аналогичной той, что наблюдается с вредоносным ПО.

«Когда фирмы, занимающиеся кибербезопасностью, обнаруживают новый вид вредоносного ПО и разрабатывают сигнатуры для его обнаружения, разработчики вредоносных программ вносят “настройки”, чтобы обойти детектор», — говорится в отчете.

Ученые уверены, что рано или поздно цикл «обнаружение-уклонение» достигнет той точки, когда детекторы дипфейков не смогут справиться с их потоком:

«Мы можем оказаться в той ситуации, когда обнаружение становится невозможным или требует слишком больших вычислительных ресурсов, чтобы выполнять его быстро и в больших объемах».

Напомним, в январе исследователи из OpenAI предупредили о растущей угрозе использования языковых моделей для распространения дезинформации.

В декабре 2022 года китайский регулятор запретил создавать и распространять дипфейки, «угрожающие национальной безопасности». Правила вступили в силу 10 января 2023 года.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK