Исследование: искусственный интеллект пишет фишинговые письма эффективнее людей
Языковая модель GPT-3 в сочетании с другими сервисами искусственного интеллекта может использоваться для создания персонализированных фишинговых писем. К такому выводу пришли исследователи из Государственного технологического агентства Сингапура, пишет Wired .
Для создания писем с вредоносными ссылками ученые использовали платформу OpenAI GPT-3 совместно с другими продуктами на базе ИИ, ориентированными на анализ личности. Пропустив через них выходные данные, исследователи разработали конвейер, который обрабатывал и уточнял сообщения перед отправкой.
В ходе эксперимента исследователи разослали 200 людям целевые фишинговые электронные письма, созданные ими самими и искусственным интеллектом. Каждое сообщение содержало безопасные ссылки, которые собирали информацию о кликах.
Они выяснили, что большинство испытуемых чаще переходили по ссылкам в письмах, созданных алгоритмом, чем написанных людьми.
По словам специалиста по кибербезопасности Государственного технологического агентства Юджина Лима, использование ИИ-сервисов снижает входной барьер для злоумышленников и увеличивает потенциальные цели для фишинга.
«ИИ как услуга будет стоить вам пару центов и им действительно легко пользоваться — просто вводите текст и получаете результат. Вам даже не нужно запускать код», — сказал Лим.
Он считает, что таким образом любое электронное письмо с фишинговыми ссылками может быть персонализировано для каждого получателя с минимальными затратами.
Исследователи отметили, что эксперимент является лишь первым шагом. По их словам, размер выборки относительно небольшой, а целевой пул — однородный. Кроме того, все сообщения были созданы сотрудниками офиса, а не внешними злоумышленниками, пытающимися персонализировать тексты без какой-либо информации о жертвах.
Однако полученные данные побудили исследователей глубже задуматься о том, какую роль ИИ сможет сыграть в продвижении целевых фишинговых кампаний.
Напомним, в августе исследователи с помощью «универсального» лица обманули большинство систем распознавания лиц.
В июле ученые сообщили об обнаружении метода незаметного внедрения вредоносного кода в нейросети.
В мае исследователи из Центра кибербезопасности Мэриленда выявили уязвимость в нейронных сетях, увеличивающую их энергопотребление.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!