Назад в блог

20 января 2025

Искусственный интеллект: атакует и защищает

Как автоматизация меняет сферу кибербезопасности

Future Crew

Блок инноваций ПАО «МТС»

Машинное обучение применяется в кибербезопасности минимум с 1998 года, но появление больших языковых моделей (LLM) значительно расширило границы применимости ИИ. Он уже трансформирует сферу ИБ быстрыми темпами, позволяя защитникам частично автоматизировать свою работу. Однако нейросети создают защитникам и проблемы. Компании внедряют искусственный интеллект во все внутренние процессы — от закупок до техподдержки. Эти новые ИИ-системы тоже нуждаются в защите, поэтому Gartner предсказывает рост расходов ИБ на 15% в 2025 году. Применение нейросетей осваивают и злоумышленники, которым взломанные или специально натренированные LLM поставляют мошеннические тексты, изображения и даже вредоносное ПО.

ИИ в руках злоумышленника

Организации киберпреступников похожи на современный легитимный бизнес, и они стремятся снизить себестоимость атак. ИИ уже значительно повышает эффективность фишинга. Если раньше преступники рассылали шаблонные письма, изобилующие опечатками, то сегодня LLM позволяют адаптировать текст под конкретного получателя и грамотно писать на его родном языке. Недавнее исследование специалиста по кибербезопасности Брюса Шнайера и его коллег показало, что 37% участников поверили фишинговому письму, полностью составленному ИИ, и 62% — черновику от ИИ, доработанному человеком. Последний показатель сравним с эффективностью фишинга, полностью подготовленного живым специалистом (74%). Авторы также показали, что LLM на 95% снижают расходы злоумышленников и на остальных этапах атаки: сборе адресов жертв и информации о них, рассылке писем, анализе эффективности. Благодаря ИИ преступники могут одновременно увеличить масштаб и эффективность атак.

Генеративные нейросети, создающие аудио и видео, значительно упрощают и удешевляют другие виды мошенничества — атаки с применением дипфейков. Убедительные подделки голосов и внешности реальных людей применяются в мошеннических схемах со звонком от имени начальства, рекламе финансовых пирамид и регистрации в различных организациях по поддельным документам. В отчёте Identity Fraud Report компания Onfido указывает, что за 2023 год число дипфейк-атак выросло на 3000%. По прогнозам Gartner, из-за дипфейков уже к 2026 году 30% компаний откажутся от дистанционной биометрической аутентификации и верификации по лицу клиентов и сотрудников.

Claude, ChatGPT и другие LLM теоретически должны отказываться помогать в создании фишинговых текстов, вредоносного ПО и других преступных действиях. В киберподполье решают эту проблему несколькими способами: дробят задачу на небольшие фрагменты, каждый из которых трудно идентифицировать как вредоносный; используют «джейлбрейки» LLM для обхода ограничений; запускают специально натренированные преступниками небольшие модели (WormGPT, FraudGPT), основанные на LLM с открытым исходным кодом.

Искусственные напарники — но не сотрудники

Даже если не делать поправку на увеличение числа атак за счёт применения ИИ преступниками, исследование 2024 ISC2 Cybersecurity Workforce Study показывает, что защитники сталкиваются с серьёзным дефицитом квалифицированных кадров и бюджетов на наём. Gartner и другие эксперты считают выходом автоматизацию при помощи ИИ. Нейросети видятся в первую очередь напарниками для живых сотрудников, которые избавляют людей от рутинных задач и выделяют вопросы, требующие первоочередного внимания. Благодаря знаниям и рецептам, заложенным в ИИ-модели, даже относительно неопытные сотрудники отдела ИБ смогут эффективнее реагировать на угрозы, находить уязвимости и проводить расследования. Полная замена людей на ИИ в сфере ИБ маловероятна, так как злоумышленники постоянно находят новые способы обмана защитных систем, что требует постоянного творческого подхода к защите.

Однако быстрому внедрению ИИ мешают незрелость многих решений и технологическая неоднородность ИБ-инструментов. Компания Verizon в отчёте 2021 Data Breach Investigations Report указывает, что крупные организации часто управляют «зоопарком» из 55–75 различных инструментов ИБ, объединить которые в единую систему сложно, — хоть с участием ИИ, хоть без него. Поэтому многие компании пока внедряют ИИ-ассистентов в отдельные процессы, где это приносит наибольший прирост эффективности:

·        Приоритизация оповещений ИБ в центре мониторинга

·        Автоматическая фильтрация ложных срабатываний

·        Обогащение информации данными киберразведки (threat intelligence)

·        Детектирование аномалий в сети и подозрительных событий

·        Сбор информации об инцидентах, уязвимостях и состоянии инфраструктуры, а также составление черновиков отчётов

·        Анализ защищённости инфраструктуры и контекстной значимости известных уязвимостей

·        Поиск информации в архивах данных по нечётким запросам, генерация справочной информации и инструкций по решению конкретных задач

При этом в перспективе IBM прочит ИИ более активную роль:

·        Защиту данных в гибридных облачных инфраструктурах, включая идентификацию «теневого ИТ» (то есть данных и приложений, о которых не знают команды ИТ и ИБ и которые не соответствуют политикам безопасности).

·        Автоматизацию реагирования на инциденты, включая составление кратких отчётов и применение соответствующих мер. Это может ускорить обработку инцидентов в среднем на 55%.

·        Мониторинг облачных сервисов на предмет аномальных запросов, которые могут указывать на скачивание и изменение информации киберпреступниками.

ИИ программирует и интегрирует

Некоторые применения ИИ актуальны и для злоумышленников, и для защитников — например, написание кода. Зарегистрированы случаи применения LLM при создании фишинговых веб-страниц и образцов вредоносного ПО. Эти разработки не отличаются ни новизной, ни сложностью, но без языковых моделей на их создание ушло бы значительно больше времени.

Другое «обоюдоострое» применение — поиск уязвимостей. ИИ-системы уже помогают защитникам в обнаружении настоящих уязвимостей в коммерческом ПО, но завтра это могут повторить и злоумышленники. А уже сегодня они используют ChatGPT, чтобы оптимизировать эксплуатацию известных уязвимостей в конкретных кибератаках.

Перспективное применение ИИ — объединение разнородных данных из нескольких систем с целью получения общей картины безопасности в компании. Поэтому при внедрении ИИ-решений в ИБ важно выработать комплексный подход, в котором различные инструменты ИБ имеют потенциал интеграции и смогут работать в синергии под управлением ИИ-ассистентов и людей, вооружённых ИИ. Ключевые особенности, необходимые таким решениям, — работа с открытыми API, поддержка общепринятых в ИБ форматов данных (описаний угроз и уязвимостей), а также возможность принимать команды и выдавать результаты работы в виде, удобном для обработки большими языковыми моделями.

поделиться