Ssylka

Восстание темного ИИ: новая гонка кибервооружений

В июне 2023 года на хакерских форумах появился чат-бот WormGPT. В отличие от аналогов, он не имел этических ограничений и был создан специально для киберпреступников. Его создатель, Рафаэль Мораис, предлагал инструмент по подписке стоимостью от 500 евро в месяц или за 5000 евро для частной установки. WormGPT умел генерировать убедительные фишинговые письма и писать вредоносный код, чем привлек более 200 платных пользователей. Спустя несколько месяцев проект был закрыт после разоблачительной статьи исследователя безопасности Брайана Кребса, который установил личность создателя. Сам Мораис утверждал, что создавал «нейтральный и нецензурированный» инструмент и не писал большую часть его кода. Обвинения ему предъявлены не были.
Восстание темного ИИ: новая гонка кибервооружений
Изображение носит иллюстративный характер

Закрытие WormGPT не остановило тренд. За два с лишним года с момента появления предварительной версии ChatGPT в конце 2022 года даркнет наполнился аналогичными инструментами. Спустя всего месяц после WormGPT, в июле 2023 года, был запущен FraudGPT, который, по заявлениям, привлек более 3000 подписчиков. Вслед за ним появились DarkGPT, XXXGPT и Evil-GPT. Некоторые проекты, такие как keanu-WormGPT, использовали имя предшественника, но работали на взломанной версии модели Grok от компании X. Эти чат-боты, изначально лишенные защитных механизмов, сделали сложные кибератаки доступными для преступников с минимальными техническими навыками.

Угроза исходит не только от специализированных моделей. Киберпреступники научились обходить защиту и в общедоступных ИИ, таких как ChatGPT. Один из методов — социальная инженерия, когда вредоносный запрос маскируется под гипотетический сценарий, например, «напиши фишинговое письмо для моего романа». Другой, более сложный способ — эксплуатация «доверия между агентами», когда один ИИ обманом заставляет другой обойти собственные системы безопасности. Исследование, опубликованное на сервере препринтов arXiv в июле 2025 года, показало, что 14 из 17 передовых языковых моделей уязвимы для этой атаки.

Дополнительную опасность представляет возможность доработки моделей с открытым исходным кодом. Кристал Морин, старший стратег по кибербезопасности в Sysdig и бывший аналитик разведки ВВС США, поясняет: «Любой, у кого есть компьютер, особенно с графическим процессором, и некоторые технические знания, может самостоятельно разместить языковую модель и доработать ее для конкретной цели». Это позволяет технически подкованным преступникам создавать собственные, узкоспециализированные вредоносные инструменты, которые сложно обнаружить.

Рост эффективности атак, вызванный генеративным ИИ, привел к резкому увеличению числа атак с использованием программ-вымогателей и эксплойтов в облачных средах за последние два года. Средняя стоимость утечки данных достигла исторического максимума. В ответ на это технологические гиганты начали использовать искусственный интеллект для защиты. Компании Microsoft, OpenAI и Google активно разрабатывают ИИ-инструменты для обороны.

Конкретные примеры контрмер уже существуют. Microsoft Threat Intelligence недавно пресекла крупномасштабную фишинговую кампанию, предположительно организованную с помощью ИИ. OpenAI создала инструмент для исследователей, позволяющий выявлять сгенерированные нейросетями поддельные фотографии. Google представила разработчикам ИИ-инструменты для предотвращения негативного воздействия на пользователей. Наиболее ярким примером является проект Google DeepMind под названием «Big Sleep» — ИИ, который проактивно тестирует системы на наличие уязвимостей и уже обнаружил серьезные бреши в безопасности, в том числе в браузере Chrome.

Для тестирования защитных систем используется методология «Red Teaming», заимствованная со времен холодной войны. В рамках симуляций один ИИ выступает в роли «токсичного злоумышленника», атакуя систему, чтобы выявить ее слабые места. Оборонительные ИИ-системы также эффективно распознают повторяющиеся паттерны, характерные для массовых фишинговых рассылок. Это вынуждает специалистов по безопасности работать в режиме «предположения о взломе», постоянно ожидая атаки. «Кибербезопасность всегда была гонкой вооружений, а ИИ просто поднял ставки», — заключает Кристал Морин.

Привлечение создателей темного ИИ к ответственности осложняется правовыми «серыми зонами». Разработка инструмента, даже с возможностью вредоносного использования, не всегда является незаконной. Исследователи и аналитики по кибербезопасности делают то же самое для тестирования защиты. Однако создание и распространение вредоносного ПО или мошенничество с его помощью — это уголовное преступление. Ситуация аналогична владению радар-детектором: в некоторых юрисдикциях это законно, но его использование может быть преступлением. Из-за этой правовой неопределенности до сих пор не было громких дел против создателей темного ИИ, и правоохранительные органы сосредоточены на преследовании пользователей этих инструментов.

Текущую ситуацию отличает беспрецедентная скорость, с которой развиваются как наступательные, так и оборонительные ИИ-технологии. Киберпреступники запускают атаки, защитники используют ИИ для их отражения, и обе стороны становятся умнее в результате этого противостояния. Цикл ускоряется, и главная задача отрасли кибербезопасности — гарантировать, что на каждый новый вредоносный инструмент будет готова инновационная и своевременная защита.


Новое на сайте

18415Как в реальном времени рождается новая система колец? 18414Цепная реакция: как дефект патча Microsoft WSUS привел к глобальным атакам 18413Разрыв восприятия: опасная иллюзия кибербезопасности 18412Сделал ли древний яд Homo sapiens доминирующим видом? 18411Космические вспышки, ускользающее время и тайны прошлого 18410Почему опорожнение кишечника ощущается как награда? 18409Восстание темного ИИ: новая гонка кибервооружений 18408Зачем миру воскресший неандерталец? 18407Из кого на самом деле состояла римская армия в разгар кризиса? 18406Как расположение глаз лошади определяет её выживание? 18405Почему Meta и TikTok грозят миллиардные штрафы за нарушение европейского закона о... 18404За гранью видимого: победители фотоконкурса дикой природы 2025 18403Почему пакистанские хакеры создали вирус специально для индийских Linux-систем? 18402Дерево из штормов: как арборист создал 15-футовую ель из морского стекла