В июне 2023 года на хакерских форумах появился чат-бот WormGPT. В отличие от аналогов, он не имел этических ограничений и был создан специально для киберпреступников. Его создатель, Рафаэль Мораис, предлагал инструмент по подписке стоимостью от 500 евро в месяц или за 5000 евро для частной установки. WormGPT умел генерировать убедительные фишинговые письма и писать вредоносный код, чем привлек более 200 платных пользователей. Спустя несколько месяцев проект был закрыт после разоблачительной статьи исследователя безопасности Брайана Кребса, который установил личность создателя. Сам Мораис утверждал, что создавал «нейтральный и нецензурированный» инструмент и не писал большую часть его кода. Обвинения ему предъявлены не были.

Закрытие WormGPT не остановило тренд. За два с лишним года с момента появления предварительной версии ChatGPT в конце 2022 года даркнет наполнился аналогичными инструментами. Спустя всего месяц после WormGPT, в июле 2023 года, был запущен FraudGPT, который, по заявлениям, привлек более 3000 подписчиков. Вслед за ним появились DarkGPT, XXXGPT и Evil-GPT. Некоторые проекты, такие как keanu-WormGPT, использовали имя предшественника, но работали на взломанной версии модели Grok от компании X. Эти чат-боты, изначально лишенные защитных механизмов, сделали сложные кибератаки доступными для преступников с минимальными техническими навыками.
Угроза исходит не только от специализированных моделей. Киберпреступники научились обходить защиту и в общедоступных ИИ, таких как ChatGPT. Один из методов — социальная инженерия, когда вредоносный запрос маскируется под гипотетический сценарий, например, «напиши фишинговое письмо для моего романа». Другой, более сложный способ — эксплуатация «доверия между агентами», когда один ИИ обманом заставляет другой обойти собственные системы безопасности. Исследование, опубликованное на сервере препринтов arXiv в июле 2025 года, показало, что 14 из 17 передовых языковых моделей уязвимы для этой атаки.
Дополнительную опасность представляет возможность доработки моделей с открытым исходным кодом. Кристал Морин, старший стратег по кибербезопасности в Sysdig и бывший аналитик разведки ВВС США, поясняет: «Любой, у кого есть компьютер, особенно с графическим процессором, и некоторые технические знания, может самостоятельно разместить языковую модель и доработать ее для конкретной цели». Это позволяет технически подкованным преступникам создавать собственные, узкоспециализированные вредоносные инструменты, которые сложно обнаружить.
Рост эффективности атак, вызванный генеративным ИИ, привел к резкому увеличению числа атак с использованием программ-вымогателей и эксплойтов в облачных средах за последние два года. Средняя стоимость утечки данных достигла исторического максимума. В ответ на это технологические гиганты начали использовать искусственный интеллект для защиты. Компании Microsoft, OpenAI и Google активно разрабатывают ИИ-инструменты для обороны.
Конкретные примеры контрмер уже существуют. Microsoft Threat Intelligence недавно пресекла крупномасштабную фишинговую кампанию, предположительно организованную с помощью ИИ. OpenAI создала инструмент для исследователей, позволяющий выявлять сгенерированные нейросетями поддельные фотографии. Google представила разработчикам ИИ-инструменты для предотвращения негативного воздействия на пользователей. Наиболее ярким примером является проект Google DeepMind под названием «Big Sleep» — ИИ, который проактивно тестирует системы на наличие уязвимостей и уже обнаружил серьезные бреши в безопасности, в том числе в браузере Chrome.
Для тестирования защитных систем используется методология «Red Teaming», заимствованная со времен холодной войны. В рамках симуляций один ИИ выступает в роли «токсичного злоумышленника», атакуя систему, чтобы выявить ее слабые места. Оборонительные ИИ-системы также эффективно распознают повторяющиеся паттерны, характерные для массовых фишинговых рассылок. Это вынуждает специалистов по безопасности работать в режиме «предположения о взломе», постоянно ожидая атаки. «Кибербезопасность всегда была гонкой вооружений, а ИИ просто поднял ставки», — заключает Кристал Морин.
Привлечение создателей темного ИИ к ответственности осложняется правовыми «серыми зонами». Разработка инструмента, даже с возможностью вредоносного использования, не всегда является незаконной. Исследователи и аналитики по кибербезопасности делают то же самое для тестирования защиты. Однако создание и распространение вредоносного ПО или мошенничество с его помощью — это уголовное преступление. Ситуация аналогична владению радар-детектором: в некоторых юрисдикциях это законно, но его использование может быть преступлением. Из-за этой правовой неопределенности до сих пор не было громких дел против создателей темного ИИ, и правоохранительные органы сосредоточены на преследовании пользователей этих инструментов.
Текущую ситуацию отличает беспрецедентная скорость, с которой развиваются как наступательные, так и оборонительные ИИ-технологии. Киберпреступники запускают атаки, защитники используют ИИ для их отражения, и обе стороны становятся умнее в результате этого противостояния. Цикл ускоряется, и главная задача отрасли кибербезопасности — гарантировать, что на каждый новый вредоносный инструмент будет готова инновационная и своевременная защита.

Изображение носит иллюстративный характер
Закрытие WormGPT не остановило тренд. За два с лишним года с момента появления предварительной версии ChatGPT в конце 2022 года даркнет наполнился аналогичными инструментами. Спустя всего месяц после WormGPT, в июле 2023 года, был запущен FraudGPT, который, по заявлениям, привлек более 3000 подписчиков. Вслед за ним появились DarkGPT, XXXGPT и Evil-GPT. Некоторые проекты, такие как keanu-WormGPT, использовали имя предшественника, но работали на взломанной версии модели Grok от компании X. Эти чат-боты, изначально лишенные защитных механизмов, сделали сложные кибератаки доступными для преступников с минимальными техническими навыками.
Угроза исходит не только от специализированных моделей. Киберпреступники научились обходить защиту и в общедоступных ИИ, таких как ChatGPT. Один из методов — социальная инженерия, когда вредоносный запрос маскируется под гипотетический сценарий, например, «напиши фишинговое письмо для моего романа». Другой, более сложный способ — эксплуатация «доверия между агентами», когда один ИИ обманом заставляет другой обойти собственные системы безопасности. Исследование, опубликованное на сервере препринтов arXiv в июле 2025 года, показало, что 14 из 17 передовых языковых моделей уязвимы для этой атаки.
Дополнительную опасность представляет возможность доработки моделей с открытым исходным кодом. Кристал Морин, старший стратег по кибербезопасности в Sysdig и бывший аналитик разведки ВВС США, поясняет: «Любой, у кого есть компьютер, особенно с графическим процессором, и некоторые технические знания, может самостоятельно разместить языковую модель и доработать ее для конкретной цели». Это позволяет технически подкованным преступникам создавать собственные, узкоспециализированные вредоносные инструменты, которые сложно обнаружить.
Рост эффективности атак, вызванный генеративным ИИ, привел к резкому увеличению числа атак с использованием программ-вымогателей и эксплойтов в облачных средах за последние два года. Средняя стоимость утечки данных достигла исторического максимума. В ответ на это технологические гиганты начали использовать искусственный интеллект для защиты. Компании Microsoft, OpenAI и Google активно разрабатывают ИИ-инструменты для обороны.
Конкретные примеры контрмер уже существуют. Microsoft Threat Intelligence недавно пресекла крупномасштабную фишинговую кампанию, предположительно организованную с помощью ИИ. OpenAI создала инструмент для исследователей, позволяющий выявлять сгенерированные нейросетями поддельные фотографии. Google представила разработчикам ИИ-инструменты для предотвращения негативного воздействия на пользователей. Наиболее ярким примером является проект Google DeepMind под названием «Big Sleep» — ИИ, который проактивно тестирует системы на наличие уязвимостей и уже обнаружил серьезные бреши в безопасности, в том числе в браузере Chrome.
Для тестирования защитных систем используется методология «Red Teaming», заимствованная со времен холодной войны. В рамках симуляций один ИИ выступает в роли «токсичного злоумышленника», атакуя систему, чтобы выявить ее слабые места. Оборонительные ИИ-системы также эффективно распознают повторяющиеся паттерны, характерные для массовых фишинговых рассылок. Это вынуждает специалистов по безопасности работать в режиме «предположения о взломе», постоянно ожидая атаки. «Кибербезопасность всегда была гонкой вооружений, а ИИ просто поднял ставки», — заключает Кристал Морин.
Привлечение создателей темного ИИ к ответственности осложняется правовыми «серыми зонами». Разработка инструмента, даже с возможностью вредоносного использования, не всегда является незаконной. Исследователи и аналитики по кибербезопасности делают то же самое для тестирования защиты. Однако создание и распространение вредоносного ПО или мошенничество с его помощью — это уголовное преступление. Ситуация аналогична владению радар-детектором: в некоторых юрисдикциях это законно, но его использование может быть преступлением. Из-за этой правовой неопределенности до сих пор не было громких дел против создателей темного ИИ, и правоохранительные органы сосредоточены на преследовании пользователей этих инструментов.
Текущую ситуацию отличает беспрецедентная скорость, с которой развиваются как наступательные, так и оборонительные ИИ-технологии. Киберпреступники запускают атаки, защитники используют ИИ для их отражения, и обе стороны становятся умнее в результате этого противостояния. Цикл ускоряется, и главная задача отрасли кибербезопасности — гарантировать, что на каждый новый вредоносный инструмент будет готова инновационная и своевременная защита.