СМИ сообщили о применении ИИ северокорейскими хакерами

Связанные с КНДР хакеры стали чаще прибегать к помощи искусственного интеллекта для реализации мошеннических схем и взломов. Об этом пишет Financial Times.

Представитель разведки Южной Кореи в беседе с изданием заявил, что злоумышленники из соседней страны используют генеративный ИИ для обмана и компрометации сотрудников службы безопасности. 

В 2023 году из 1,62 млн попыток взлома, предпринятых против южнокорейских компаний и государственных органов, более 80% были связаны с Северной Кореей. 

Однако хакеры из КНДР часто терпели неудачу из-за плохого знания языка и местной специфики социального взаимодействия, утверждают южнокорейские спикеры.   

Вице-президент по исследованиям Chainalysis Эрин Планте отметила, что интерес хакеров к ИИ представляет собой новую серьезную угрозу. 

«Северокорейские хакерские группировки создают вызывающие доверие профили рекрутеров на профессиональных сайтах вроде LinkedIn. Генеративные нейросети помогают им общаться, отправлять сообщения, создавать изображения и новые личности — все, что нужно для построения тесных отношений с жертвой», — рассказала она. 

Планте описала случай, когда хакеры из КНДР обманули старшего инженера японской криптовалютной биржи, выдав себя за представителей сингапурской компании. Они попросили жертву провести «техническое тест», загрузив программное обеспечения, которое оказалось фишинговым. 

«Атаки становятся все более изощренными — мы не говорим о плохо сформулированном электронном письме с надписью “нажмите на ссылку”. Это подробные профили в LinkedIn и других социальных сетях, которые они используют для выстраивания отношений в течение недель и месяцев», — добавила исследовательница. 

Аналитик сеульской информационной службы NK Pro Шрейас Редди рассказал, что угрозе также подвержены пользователи других платформ, включая Facebook, WhatsApp, Telegram и Discord. 

По его мнению, ИИ-сервисы вроде ChatGPT помогают северокорейским преступникам разрабатывать более сложные формы вредоносного программного обеспечения. В этих инструментах предусмотрены меры безопасности, предотвращающие их использование в злонамеренных целях, но ограничения могут обойти даже обычные пользователи, добавил Редди. 

Хюк Ким, научный сотрудник Центра исследований в области нераспространения им. Джеймса Мартина, отметил, что за последние два десятилетия северокорейские исследователи опубликовали «сотни статей» на тему ИИ.

В одном из материалов 2022 года они рассказали о методе машинного обучения в симуляции военных действий. В другой статье того же года рассматривается, как большие языковые модели могут помочь в эксплуатации ядерного реактора.

«Насколько мы можем судить, сложность северокорейских систем искусственного интеллекта все еще находится в зачаточном состоянии. Но также возможно, что они просто не хотят раскрывать свои возможности», — подытожил Ким. 

Ранее разработчики компании OpenAI пресекли возможность использования своих продуктов киберпреступниками, связанными с правительствами различных стран. Совместно с Microsoft Threat Intelligence они удалили пять аккаунтов злоумышленников, включая связанные с хакерскими группировками из КНДР. 

Напомним, в 2023 году северокорейские взломщики украли не менее $600 млн и были ответственны почти за треть киберинцидентов, согласно отчету TRM Labs.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version