Ученые призвали мировое сообщество урегулировать дипфейки
Американские ученые предупредили о растущих усилиях «вражеских государств» по созданию дипфейков. Об этом пишет The Register.
Согласно исследователям из Северо-Западного университета и Института Брукингса, на сегодня доступно множество инструментов для создания ИИ-подделок.
«Легкость, с которой могут быть разработаны дипфейки для конкретных людей и целей, а также их быстрое распространение, […] указывают на мир, в котором все государства и негосударственные субъекты смогут использовать дипфейки в операциях по обеспечению безопасности и разведке», — заявили авторы доклада.
По словам ученых, ИИ-генераторы вроде Stable Diffusion уже адаптируют для создания ложных видеороликов. С каждой итерацией технологии дипфейки выглядят все более реалистичными и убедительными, добавили они.
Согласно отчету, иностранные «противники» будут использовать такие системы для проведения дезинформационных кампаний и распространения фальшивых новостей. Таким образом они смогут сеять путаницу, распространять пропаганду и подрывать доверие в интернете, считают исследователи.
Также ожидается, что «вражеские государства» смогут использовать ИИ в рамках военных и разведывательных операций по мере совершенствования технологий.
Исследователи призвали правительства всего мира ввести политику, регулирующую использование ИИ-подделок.
«В долгосрочной перспективе нам необходимо глобальное соглашение об использовании дипфейков оборонными и спецслужбами», — сказал один из соавторов исследования.
Однако такая мера все равно не гарантирует полную безопасность. Эксперты считают, что разработка международных правил может быть затруднена из-за «национальных государств, обладающих правом вето».
«Даже если такое соглашение будет достигнуто, некоторые страны, вероятно, его нарушат. Поэтому такое соглашение должно включать механизм санкций для сдерживания и наказания нарушителей», — считают исследователи.
Разработки технологий обнаружения дипфейков также недостаточно, заявили ученые. По их словам, это будет похоже на игру в кошки-мышки, аналогичной той, что наблюдается с вредоносным ПО.
«Когда фирмы, занимающиеся кибербезопасностью, обнаруживают новый вид вредоносного ПО и разрабатывают сигнатуры для его обнаружения, разработчики вредоносных программ вносят “настройки”, чтобы обойти детектор», — говорится в отчете.
Ученые уверены, что рано или поздно цикл «обнаружение-уклонение» достигнет той точки, когда детекторы дипфейков не смогут справиться с их потоком:
«Мы можем оказаться в той ситуации, когда обнаружение становится невозможным или требует слишком больших вычислительных ресурсов, чтобы выполнять его быстро и в больших объемах».
Напомним, в январе исследователи из OpenAI предупредили о растущей угрозе использования языковых моделей для распространения дезинформации.
В декабре 2022 года китайский регулятор запретил создавать и распространять дипфейки, «угрожающие национальной безопасности». Правила вступили в силу 10 января 2023 года.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!