Восстание темного ИИ: новая гонка кибервооружений

В июне 2023 года на хакерских форумах появился чат-бот WormGPT. В отличие от аналогов, он не имел этических ограничений и был создан специально для киберпреступников. Его создатель, Рафаэль Мораис, предлагал инструмент по подписке стоимостью от 500 евро в месяц или за 5000 евро для частной установки. WormGPT умел генерировать убедительные фишинговые письма и писать вредоносный код, чем привлек более 200 платных пользователей. Спустя несколько месяцев проект был закрыт после разоблачительной статьи исследователя безопасности Брайана Кребса, который установил личность создателя. Сам Мораис утверждал, что создавал «нейтральный и нецензурированный» инструмент и не писал большую часть его кода. Обвинения ему предъявлены не были.
Восстание темного ИИ: новая гонка кибервооружений
Изображение носит иллюстративный характер

Закрытие WormGPT не остановило тренд. За два с лишним года с момента появления предварительной версии ChatGPT в конце 2022 года даркнет наполнился аналогичными инструментами. Спустя всего месяц после WormGPT, в июле 2023 года, был запущен FraudGPT, который, по заявлениям, привлек более 3000 подписчиков. Вслед за ним появились DarkGPT, XXXGPT и Evil-GPT. Некоторые проекты, такие как keanu-WormGPT, использовали имя предшественника, но работали на взломанной версии модели Grok от компании X. Эти чат-боты, изначально лишенные защитных механизмов, сделали сложные кибератаки доступными для преступников с минимальными техническими навыками.

Угроза исходит не только от специализированных моделей. Киберпреступники научились обходить защиту и в общедоступных ИИ, таких как ChatGPT. Один из методов — социальная инженерия, когда вредоносный запрос маскируется под гипотетический сценарий, например, «напиши фишинговое письмо для моего романа». Другой, более сложный способ — эксплуатация «доверия между агентами», когда один ИИ обманом заставляет другой обойти собственные системы безопасности. Исследование, опубликованное на сервере препринтов arXiv в июле 2025 года, показало, что 14 из 17 передовых языковых моделей уязвимы для этой атаки.

Дополнительную опасность представляет возможность доработки моделей с открытым исходным кодом. Кристал Морин, старший стратег по кибербезопасности в Sysdig и бывший аналитик разведки ВВС США, поясняет: «Любой, у кого есть компьютер, особенно с графическим процессором, и некоторые технические знания, может самостоятельно разместить языковую модель и доработать ее для конкретной цели». Это позволяет технически подкованным преступникам создавать собственные, узкоспециализированные вредоносные инструменты, которые сложно обнаружить.

Рост эффективности атак, вызванный генеративным ИИ, привел к резкому увеличению числа атак с использованием программ-вымогателей и эксплойтов в облачных средах за последние два года. Средняя стоимость утечки данных достигла исторического максимума. В ответ на это технологические гиганты начали использовать искусственный интеллект для защиты. Компании Microsoft, OpenAI и Google активно разрабатывают ИИ-инструменты для обороны.

Конкретные примеры контрмер уже существуют. Microsoft Threat Intelligence недавно пресекла крупномасштабную фишинговую кампанию, предположительно организованную с помощью ИИ. OpenAI создала инструмент для исследователей, позволяющий выявлять сгенерированные нейросетями поддельные фотографии. Google представила разработчикам ИИ-инструменты для предотвращения негативного воздействия на пользователей. Наиболее ярким примером является проект Google DeepMind под названием «Big Sleep» — ИИ, который проактивно тестирует системы на наличие уязвимостей и уже обнаружил серьезные бреши в безопасности, в том числе в браузере Chrome.

Для тестирования защитных систем используется методология «Red Teaming», заимствованная со времен холодной войны. В рамках симуляций один ИИ выступает в роли «токсичного злоумышленника», атакуя систему, чтобы выявить ее слабые места. Оборонительные ИИ-системы также эффективно распознают повторяющиеся паттерны, характерные для массовых фишинговых рассылок. Это вынуждает специалистов по безопасности работать в режиме «предположения о взломе», постоянно ожидая атаки. «Кибербезопасность всегда была гонкой вооружений, а ИИ просто поднял ставки», — заключает Кристал Морин.

Привлечение создателей темного ИИ к ответственности осложняется правовыми «серыми зонами». Разработка инструмента, даже с возможностью вредоносного использования, не всегда является незаконной. Исследователи и аналитики по кибербезопасности делают то же самое для тестирования защиты. Однако создание и распространение вредоносного ПО или мошенничество с его помощью — это уголовное преступление. Ситуация аналогична владению радар-детектором: в некоторых юрисдикциях это законно, но его использование может быть преступлением. Из-за этой правовой неопределенности до сих пор не было громких дел против создателей темного ИИ, и правоохранительные органы сосредоточены на преследовании пользователей этих инструментов.

Текущую ситуацию отличает беспрецедентная скорость, с которой развиваются как наступательные, так и оборонительные ИИ-технологии. Киберпреступники запускают атаки, защитники используют ИИ для их отражения, и обе стороны становятся умнее в результате этого противостояния. Цикл ускоряется, и главная задача отрасли кибербезопасности — гарантировать, что на каждый новый вредоносный инструмент будет готова инновационная и своевременная защита.


Новое на сайте

19216Смертельный симбиоз спама и эксплойтов: как хакеры захватывают корпоративные сети за 11... 19215Как новые SaaS-платформы вроде Starkiller и 1Phish позволяют киберпреступникам незаметно... 19214Инженерия ужаса: как паровые машины и математика создали гений Эдгара Аллана по 19213Трансформация первой линии SOC: три шага к предиктивной безопасности 19212Архитектура смыслов в профессиональной редактуре 19211Манипуляция легитимными редиректами OAuth как вектор скрытых атак на правительственные... 19210Как активно эксплуатируемая уязвимость CVE-2026-21385 в графике Qualcomm привела к... 19209Как беспрецедентный бунт чернокожих женщин в суде Бостона разрушил планы рабовладельцев? 19208Как новые поколения троянов удаленного доступа захватывают системы ради кибершпионажа и... 19207Почему мировые киберпреступники захватили рекламные сети, и как Meta вместе с властями... 19206Как фальшивый пакет StripeApi.Net в NuGet Gallery незаметно похищал финансовые API-токены... 19205Зачем неизвестная группировка UAT-10027 внедряет бэкдор Dohdoor в системы образования и... 19204Ритуальный предсвадебный плач как форма протеста в традиционном Китае 19203Невидимая угроза в оперативной памяти: масштабная атака северокорейских хакеров на... 19202Как уязвимость нулевого дня в Cisco SD-WAN позволяет хакерам незаметно захватывать...
Ссылка