Злоумышленники начали использовать новый общедоступный инструмент на базе искусственного интеллекта, HexStrike AI, для эксплуатации трех недавно обнаруженных уязвимостей в продуктах компании Citrix. Согласно отчету компании Check Point, атаки начались в течение недели после публичного раскрытия информации об этих уязвимостях, что свидетельствует о кардинальном сдвиге в сфере кибербезопасности, где ИИ резко ускоряет и масштабирует кибератаки.

Инструмент HexStrike AI позиционируется на своем официальном сайте как платформа для обеспечения безопасности, предназначенная для автоматизации разведки и обнаружения уязвимостей. Его заявленные легитимные цели включают проведение санкционированных тестов на проникновение (red teaming), поиск уязвимостей за вознаграждение (bug bounty) и участие в соревнованиях по кибербезопасности (Capture the Flag).
Технически HexStrike AI представляет собой платформу с открытым исходным кодом, которая, согласно данным из ее репозитория на GitHub, интегрируется с более чем 150 инструментами безопасности. Ее функционал охватывает сетевую разведку, тестирование безопасности веб-приложений, обратную разработку и обеспечение безопасности облачных сред.
Ключевой особенностью платформы является поддержка десятков специализированных ИИ-агентов. Эти агенты точно настроены для выполнения таких задач, как анализ данных об уязвимостях, разработка эксплойтов, обнаружение цепочек атак и обработка ошибок в процессе эксплуатации.
Check Point подтверждает факт злонамеренного использования инструмента, ссылаясь на обсуждения на даркнет-форумах. Киберпреступники утверждают, что успешно применили HexStrike AI для эксплуатации уязвимостей Citrix. Они также заявляют о массовой маркировке уязвимых экземпляров Citrix NetScaler, которые затем выставляются на продажу другим злоумышленникам.
Эксперты Check Point называют это событие «поворотным моментом», когда инструмент, созданный «для усиления защиты», был «быстро перепрофилирован в механизм для эксплуатации». Использование ИИ значительно сокращает временное окно между публичным раскрытием уязвимости и ее массовым использованием в атаках.
Автоматизация, обеспечиваемая HexStrike AI, позволяет злоумышленникам распараллеливать процессы эксплуатации, сокращать человеческие усилия и автоматически повторять неудачные попытки взлома до достижения успеха. Это повышает «общий выход успешных атак» и сигнализирует о новой парадигме, где оркестровка атак с помощью ИИ станет нормой. Немедленной рекомендацией является установка исправлений и усиление защиты затронутых систем.
Данный инцидент является частью более широкой тенденции. Недавно опубликованное исследование Виктора Майораль-Вильчеса из Alias Robotics и Пера Маннермаа Рюннинга из Oracle Corporation посвящено рискам, связанным с ИИ-агентами для кибербезопасности, в качестве примера которых приводится PentestGPT.
Основной вывод исследования заключается в том, что подобные агенты несут повышенные риски «внедрения через промпт» (prompt injection). Скрытые инструкции могут быть использованы для превращения этих инструментов безопасности в полноценное кибероружие.
В исследовании этот риск описывается так: «Охотник становится жертвой, инструмент безопасности — вектором атаки, и то, что начиналось как тест на проникновение, заканчивается получением злоумышленником полного доступа к инфраструктуре тестировщика».
Авторы исследования приходят к выводу, что существующие агенты безопасности на базе больших языковых моделей (LLM) являются «принципиально небезопасными для развертывания во враждебных средах без всеобъемлющих защитных мер».

Изображение носит иллюстративный характер
Инструмент HexStrike AI позиционируется на своем официальном сайте как платформа для обеспечения безопасности, предназначенная для автоматизации разведки и обнаружения уязвимостей. Его заявленные легитимные цели включают проведение санкционированных тестов на проникновение (red teaming), поиск уязвимостей за вознаграждение (bug bounty) и участие в соревнованиях по кибербезопасности (Capture the Flag).
Технически HexStrike AI представляет собой платформу с открытым исходным кодом, которая, согласно данным из ее репозитория на GitHub, интегрируется с более чем 150 инструментами безопасности. Ее функционал охватывает сетевую разведку, тестирование безопасности веб-приложений, обратную разработку и обеспечение безопасности облачных сред.
Ключевой особенностью платформы является поддержка десятков специализированных ИИ-агентов. Эти агенты точно настроены для выполнения таких задач, как анализ данных об уязвимостях, разработка эксплойтов, обнаружение цепочек атак и обработка ошибок в процессе эксплуатации.
Check Point подтверждает факт злонамеренного использования инструмента, ссылаясь на обсуждения на даркнет-форумах. Киберпреступники утверждают, что успешно применили HexStrike AI для эксплуатации уязвимостей Citrix. Они также заявляют о массовой маркировке уязвимых экземпляров Citrix NetScaler, которые затем выставляются на продажу другим злоумышленникам.
Эксперты Check Point называют это событие «поворотным моментом», когда инструмент, созданный «для усиления защиты», был «быстро перепрофилирован в механизм для эксплуатации». Использование ИИ значительно сокращает временное окно между публичным раскрытием уязвимости и ее массовым использованием в атаках.
Автоматизация, обеспечиваемая HexStrike AI, позволяет злоумышленникам распараллеливать процессы эксплуатации, сокращать человеческие усилия и автоматически повторять неудачные попытки взлома до достижения успеха. Это повышает «общий выход успешных атак» и сигнализирует о новой парадигме, где оркестровка атак с помощью ИИ станет нормой. Немедленной рекомендацией является установка исправлений и усиление защиты затронутых систем.
Данный инцидент является частью более широкой тенденции. Недавно опубликованное исследование Виктора Майораль-Вильчеса из Alias Robotics и Пера Маннермаа Рюннинга из Oracle Corporation посвящено рискам, связанным с ИИ-агентами для кибербезопасности, в качестве примера которых приводится PentestGPT.
Основной вывод исследования заключается в том, что подобные агенты несут повышенные риски «внедрения через промпт» (prompt injection). Скрытые инструкции могут быть использованы для превращения этих инструментов безопасности в полноценное кибероружие.
В исследовании этот риск описывается так: «Охотник становится жертвой, инструмент безопасности — вектором атаки, и то, что начиналось как тест на проникновение, заканчивается получением злоумышленником полного доступа к инфраструктуре тестировщика».
Авторы исследования приходят к выводу, что существующие агенты безопасности на базе больших языковых моделей (LLM) являются «принципиально небезопасными для развертывания во враждебных средах без всеобъемлющих защитных мер».