Ssylka

Восстание темного ИИ: новая гонка кибервооружений

В июне 2023 года на хакерских форумах появился чат-бот WormGPT. В отличие от аналогов, он не имел этических ограничений и был создан специально для киберпреступников. Его создатель, Рафаэль Мораис, предлагал инструмент по подписке стоимостью от 500 евро в месяц или за 5000 евро для частной установки. WormGPT умел генерировать убедительные фишинговые письма и писать вредоносный код, чем привлек более 200 платных пользователей. Спустя несколько месяцев проект был закрыт после разоблачительной статьи исследователя безопасности Брайана Кребса, который установил личность создателя. Сам Мораис утверждал, что создавал «нейтральный и нецензурированный» инструмент и не писал большую часть его кода. Обвинения ему предъявлены не были.
Восстание темного ИИ: новая гонка кибервооружений
Изображение носит иллюстративный характер

Закрытие WormGPT не остановило тренд. За два с лишним года с момента появления предварительной версии ChatGPT в конце 2022 года даркнет наполнился аналогичными инструментами. Спустя всего месяц после WormGPT, в июле 2023 года, был запущен FraudGPT, который, по заявлениям, привлек более 3000 подписчиков. Вслед за ним появились DarkGPT, XXXGPT и Evil-GPT. Некоторые проекты, такие как keanu-WormGPT, использовали имя предшественника, но работали на взломанной версии модели Grok от компании X. Эти чат-боты, изначально лишенные защитных механизмов, сделали сложные кибератаки доступными для преступников с минимальными техническими навыками.

Угроза исходит не только от специализированных моделей. Киберпреступники научились обходить защиту и в общедоступных ИИ, таких как ChatGPT. Один из методов — социальная инженерия, когда вредоносный запрос маскируется под гипотетический сценарий, например, «напиши фишинговое письмо для моего романа». Другой, более сложный способ — эксплуатация «доверия между агентами», когда один ИИ обманом заставляет другой обойти собственные системы безопасности. Исследование, опубликованное на сервере препринтов arXiv в июле 2025 года, показало, что 14 из 17 передовых языковых моделей уязвимы для этой атаки.

Дополнительную опасность представляет возможность доработки моделей с открытым исходным кодом. Кристал Морин, старший стратег по кибербезопасности в Sysdig и бывший аналитик разведки ВВС США, поясняет: «Любой, у кого есть компьютер, особенно с графическим процессором, и некоторые технические знания, может самостоятельно разместить языковую модель и доработать ее для конкретной цели». Это позволяет технически подкованным преступникам создавать собственные, узкоспециализированные вредоносные инструменты, которые сложно обнаружить.

Рост эффективности атак, вызванный генеративным ИИ, привел к резкому увеличению числа атак с использованием программ-вымогателей и эксплойтов в облачных средах за последние два года. Средняя стоимость утечки данных достигла исторического максимума. В ответ на это технологические гиганты начали использовать искусственный интеллект для защиты. Компании Microsoft, OpenAI и Google активно разрабатывают ИИ-инструменты для обороны.

Конкретные примеры контрмер уже существуют. Microsoft Threat Intelligence недавно пресекла крупномасштабную фишинговую кампанию, предположительно организованную с помощью ИИ. OpenAI создала инструмент для исследователей, позволяющий выявлять сгенерированные нейросетями поддельные фотографии. Google представила разработчикам ИИ-инструменты для предотвращения негативного воздействия на пользователей. Наиболее ярким примером является проект Google DeepMind под названием «Big Sleep» — ИИ, который проактивно тестирует системы на наличие уязвимостей и уже обнаружил серьезные бреши в безопасности, в том числе в браузере Chrome.

Для тестирования защитных систем используется методология «Red Teaming», заимствованная со времен холодной войны. В рамках симуляций один ИИ выступает в роли «токсичного злоумышленника», атакуя систему, чтобы выявить ее слабые места. Оборонительные ИИ-системы также эффективно распознают повторяющиеся паттерны, характерные для массовых фишинговых рассылок. Это вынуждает специалистов по безопасности работать в режиме «предположения о взломе», постоянно ожидая атаки. «Кибербезопасность всегда была гонкой вооружений, а ИИ просто поднял ставки», — заключает Кристал Морин.

Привлечение создателей темного ИИ к ответственности осложняется правовыми «серыми зонами». Разработка инструмента, даже с возможностью вредоносного использования, не всегда является незаконной. Исследователи и аналитики по кибербезопасности делают то же самое для тестирования защиты. Однако создание и распространение вредоносного ПО или мошенничество с его помощью — это уголовное преступление. Ситуация аналогична владению радар-детектором: в некоторых юрисдикциях это законно, но его использование может быть преступлением. Из-за этой правовой неопределенности до сих пор не было громких дел против создателей темного ИИ, и правоохранительные органы сосредоточены на преследовании пользователей этих инструментов.

Текущую ситуацию отличает беспрецедентная скорость, с которой развиваются как наступательные, так и оборонительные ИИ-технологии. Киберпреступники запускают атаки, защитники используют ИИ для их отражения, и обе стороны становятся умнее в результате этого противостояния. Цикл ускоряется, и главная задача отрасли кибербезопасности — гарантировать, что на каждый новый вредоносный инструмент будет готова инновационная и своевременная защита.


Новое на сайте

18744Физики точно рассчитали ускорение времени на Марсе относительно земных часов 18743Почему управление нечеловеческими сущностями становится критическим вызовом для IAM и как... 18742Почему непропатченная уязвимость нулевого дня в Gogs привела к взлому сотен серверов... 18741Научные факты о зимнем солнцестоянии 2025 года и астрономические границы сезонов 18740Защищен ли ваш браузер от новой активно эксплуатируемой уязвимости в Google Chrome? 18739Чем грозит использование жестко закодированных ключей в решениях Gladinet? 18738Чем угрожает глобальная кампания React2Shell сотням тысяч серверов на базе React? 18737Как мозаика из Кеттона раскрыла сюжет утерянной трагедии Эсхила вопреки версии Гомера? 18736Нейробиология повседневных ритуалов: как осознанные действия программируют мозг на... 18735Почему обнаруженные уязвимости шифрования PCIe 5.0+ угрожают целостности данных в... 18734Действительно ли вал Адриана был безлюдным военным рубежом 18733Как злоумышленники обходят защиту AWS, AI и Kubernetes через скрытые настройки... 18732Как пересадка почки от донора, поцарапанного скунсом, привела к фатальному случаю... 18731Какие 17 гаджетов и аксессуаров гарантированно повысят эффективность тренировок в новом... 18730Microsoft исправляет критический эксплойт нулевого дня и уязвимости искусственного...