Тим Дрейпер предупредил об использующих ИИ криптомошенниках

deep fake (2)-min
deep fake (2)-min

Инвестор и миллиардер Тим Дрейпер опубликовал предупреждение о криптовалютных мошенниках, которые с помощью искусственного интеллекта имитируют его голос. 

«Очевидно, ИИ становится умнее, и люди используют мой голос, чтобы заставить вас отправить деньги (цифровую валюту). Пожалуйста, знайте, что я никогда не прошу денег у подписчиков. Если кто-то напишет, то это не я. Это воры», — заявил Дрейпер.

Дипфейки — одна из основных проблем технологий искусственного интеллекта. В последние годы активно ведутся дискуссии об угрозе фейковых личностей, которые выходят за пределы криптовалютной и ИИ-индустрии. 

В начале октября голливудская звезда Том Хэнкс выложил скриншот видео со своим дипфейком, который рекламировал «какие-то стоматологические услуги». Актер заявил, что не имеет к этому никакого отношения, и призвал к осторожности. 

Посмотреть эту публикацию в Instagram

Публикация от Tom Hanks (@tomhanks)

Вскоре после Хэнкса американская тележурналистка Гейл Кинг выложила схожий пост. По ее словам, мошенники использовали другое видео ее рекламы радиошоу для продвижения своего продукта. 

Посмотреть эту публикацию в Instagram

Публикация от Gayle King (@gayleking)

«[…] они манипулировали моим голосом и изображением, чтобы создать впечатление, будто я их рекламирую. Я никогда не слышала об этом продукте и не использовала его! Пожалуйста, не дайте себя обмануть этими видео с искусственным интеллектом», — написала Кинг. 

Следом YouTube-блогер Джеймс Дональдсон, известный как MrBeast, опубликовал пост в X с предупреждением о его дипфейке, который продвигал мошеннический розыгрыш iPhone 15 Pro.

«Готовы ли платформы социальных сетей справиться с ростом дипфейков, использующих искусственный интеллект? Это серьезная проблема», — задался вопросом блогер. 

В январе исследователи из OpenAI предупредили о растущей угрозе использования языковых моделей для распространения дезинформации. В свою очередь американские ученые призвали к противодействию дипфейкам, созданным «вражескими государствами». 

В июле в ООН заявили, что созданные ИИ поддельные видео угрожают целостности информации и приводят к разжиганию ненависти в обществе.  

Напомним, в ноябре 2022 года после краха FTX в соцсетях распространился дипфейк основателя биржи Сэма Бэнкмана-Фрида, который предлагал принять участие в розыгрыше криптовалюты в качестве компенсации. 

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK