Две стороны одной медали: кибербезопасность и искусственный интеллект

AI_Hacks-min
AI_Hacks-min

2020 год подходит к концу так же, как и начинался – хакерские атаки, взломы компьютерных систем, утечки данных фиксируются практически каждый день.

Киберпреступность угрожает организациям любого типа, а также их клиентам. Утечки личных данных потенциально могут использоваться для мошенничества и других киберпреступлений.

Компании и организации делают все возможное, чтобы отразить кибератаки. Однако им сложно предсказать время, место и масштаб возможных угроз. Еще сложнее предвидеть тип атаки, будь то вымогатель WannaCry, ботнет Emotet или, что еще хуже, доселе неизвестная вирусная программа.

Как ИИ и машинное обучение обеспечивают безопасность

Эксперты из области кибербезопасности возлагают большие надежды на технологии искусственного интеллекта (ИИ) и машинного обучения (МО). Алгоритмы могут распознавать паттерны в момент использования данных, модели поведения пользователей и вовремя активировать систему безопасности в случае подозрительной активности.

Крупные IT-компании, предоставляющие услуги в области кибербезопасности, уже в той или иной степени используют алгоритмы ИИ и МО для поиска и устранения различных угроз, а также отражения хакерских атак.

Поиск угроз

Традиционные методы обнаружения угроз используют сигнатуры или индикаторы взлома. Этот метод эффективен для ранее обнаруженных эксплойтов, однако он не может выявлять новые вирусные атаки.

Сигнатурные методы обнаружения распознают до 90% угроз. Замена традиционных техник искусственным интеллектом может увеличить эффективность до 95%, однако увеличивается риск ложно-позитивных срабатываний. Наилучшим решением может стать комбинированное использование обоих методов, что может повысить эффективность обнаружения до 100% и минимизировать количество ложных срабатываний алгоритмов.

Управление уязвимостями

В 2020 году было зарегистрировано 17 447 уязвимостей и их количество увеличивается уже четвертый год подряд. Компании и организации уделяют больше внимания незащищенным местам, обнаруживаемым ежедневно. Традиционные методы управления уязвимостями обычно ждут, пока хакеры воспользуются эксплойтами, прежде чем нейтрализовать их.

В то время, когда существующие техники выявления уязвимостей предполагают использование базы данных известных брешей, современные инструменты на базе ИИ и МО, такие как поведенческая аналитика пользователей и событий, могут мониторить действия учетных записей, конечных точек и серверов и определять аномальное поведение, сигнализируя о неизвестной атаке. Это защитит организацию еще до того, как уязвимость будет подтверждена и исправлена.

Поддержка дата-центров

ИИ может оптимизировать и отслеживать множество важных процессов работы центров обработки данных (ЦОД), такие как стабильность резервного питания, состояние охлаждающих фильтров, потребление электроэнергии, температуру оборудования и распределение нагрузки на полосу пропускания канала связи в режиме реального времени.

Вычислительные мощности ИИ и возможность непрерывного мониторинга позволяют понимать и вовремя принимать решения для повышения безопасности оборудования и инфраструктуры.

Кроме того, искусственный интеллект может помочь снизить затраты на обслуживание ЦОД, уведомляя сотрудников о необходимости принять меры для устранения неисправностей. Так, в 2016 году Google заявили, что ИИ помог им сократить издержки на охлаждение дата-центров на 40%.

Однако, как и в другой области применения, ИИ имеет ряд ограничений, который не позволяет ему стать преобладающей технологией. Одним из первостепенных является недостаток ресурсов. Компаниям и организациям необходимо вкладывать много времени и денег в вычислительные мощности, память и данные для создания и обслуживания ИИ-систем.

Специалистам по безопасности необходимо получить в распоряжение множество различных наборов данных о вредоносных кодах, уязвимостях и аномалиях, чтобы обучить алгоритмы распознавать атаки и слабые места.

Гонка вооружений ИИ?

В отчете Европола говорится, что искусственный интеллект – одна из новых технологий, которая может сделать кибератаки более опасными и трудными для обнаружения, чем когда-либо прежде. Более того, высока вероятность того, что киберпреступники уже используют ИИ для проведения хакерских кампаний.

«На данный момент многое из этого носит теоретический характер, но нельзя сказать, что этого не произошло. Вполне вероятно, что его (МО, ред.) использовали, но мы этого просто не видели или не узнали», – сказал Филипп Аманн, руководитель отдела стратегии Европейского центра киберпреступности Европола (EC3).

Возможно, что с помощью машинного обучения киберпреступники могут создавать самообучающееся вредоносное ПО, программы-вымогатели или фишинговые атаки. Сегодня хакеры не имеют доступа к тем глубоким технологиям, которыми обладают компании, занимающиеся кибербезопасностью. Однако, по словам Аманна, у них уже есть доступ к некоторым инструментам, которые бесплатно доступны для всех, и их качество неуклонно растет.

И хотя пока неясно, использовали ли хакеры машинное обучение для разработки или распространения вредоносного ПО, есть свидетельства того, что инструменты на базе ИИ использовались для совершения киберпреступлений. В 2019 году преступники использовали алгоритм подделки голоса, чтобы выманить у сотрудников одной из компаний более $243 000, представившись по телефону генеральным директором предприятия.

Такой вид мошенничества, когда злоумышленник представляется гендиректором и запрашивает срочный перевод средств встречался и ранее. Однако теперь преступники могут использовать дипфейки для имитации голоса, чтобы быть более убедительными и обходить протоколы безопасности внутри компаний.

Более того, в эпоху цифровых СМИ и социальных сетей, публичные люди, такие как бизнесмены и политики, сильнее чем когда-либо подвержены атакам с использованием [simple_tooltip content=’метод синтеза реалистичных фото-, аудио- и видеоматериалов, основанный на технологиях глубокого обучения’]дипфейков[/simple_tooltip]. Ведь для обучения алгоритмов достаточно лишь несколько фото-, видеофайлов, чтобы нейросеть научилась создавать качественные подделки с участием известных людей.

Но не только подделка голоса может нанести вред компаниям и организациям. Киберпреступники могут использовать машинное обучения для автоматической рассылки фишинговых писем, изучать паттерны поведения сотрудников компании и составлять более правдоподобные имейлы, чтобы добиться перехода на вредоносный сайт. То есть, хакеры могут использовать ИИ для атак точно так же, как специалисты по безопасности пытаются защититься от них.

Искусственный интеллект, машинное обучение, нейронные сети – это не панацея, а всего лишь технологии, которые являются ответом на сегодняшние вызовы. И то, как они будут использоваться зависит от его разработчика – будь то компания, создающая продукты для обеспечения безопасности компьютерных сетей, или преступная группировка, которая планирует очередную атаку на крупную корпорацию.

Богдан Каминский

Подписывайтесь на новости ForkLog в Telegram: ForkLog Feed — вся лента новостей, ForkLog — самые важные новости и опросы.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK