Ssylka

Восстание темного ИИ: новая гонка кибервооружений

В июне 2023 года на хакерских форумах появился чат-бот WormGPT. В отличие от аналогов, он не имел этических ограничений и был создан специально для киберпреступников. Его создатель, Рафаэль Мораис, предлагал инструмент по подписке стоимостью от 500 евро в месяц или за 5000 евро для частной установки. WormGPT умел генерировать убедительные фишинговые письма и писать вредоносный код, чем привлек более 200 платных пользователей. Спустя несколько месяцев проект был закрыт после разоблачительной статьи исследователя безопасности Брайана Кребса, который установил личность создателя. Сам Мораис утверждал, что создавал «нейтральный и нецензурированный» инструмент и не писал большую часть его кода. Обвинения ему предъявлены не были.
Восстание темного ИИ: новая гонка кибервооружений
Изображение носит иллюстративный характер

Закрытие WormGPT не остановило тренд. За два с лишним года с момента появления предварительной версии ChatGPT в конце 2022 года даркнет наполнился аналогичными инструментами. Спустя всего месяц после WormGPT, в июле 2023 года, был запущен FraudGPT, который, по заявлениям, привлек более 3000 подписчиков. Вслед за ним появились DarkGPT, XXXGPT и Evil-GPT. Некоторые проекты, такие как keanu-WormGPT, использовали имя предшественника, но работали на взломанной версии модели Grok от компании X. Эти чат-боты, изначально лишенные защитных механизмов, сделали сложные кибератаки доступными для преступников с минимальными техническими навыками.

Угроза исходит не только от специализированных моделей. Киберпреступники научились обходить защиту и в общедоступных ИИ, таких как ChatGPT. Один из методов — социальная инженерия, когда вредоносный запрос маскируется под гипотетический сценарий, например, «напиши фишинговое письмо для моего романа». Другой, более сложный способ — эксплуатация «доверия между агентами», когда один ИИ обманом заставляет другой обойти собственные системы безопасности. Исследование, опубликованное на сервере препринтов arXiv в июле 2025 года, показало, что 14 из 17 передовых языковых моделей уязвимы для этой атаки.

Дополнительную опасность представляет возможность доработки моделей с открытым исходным кодом. Кристал Морин, старший стратег по кибербезопасности в Sysdig и бывший аналитик разведки ВВС США, поясняет: «Любой, у кого есть компьютер, особенно с графическим процессором, и некоторые технические знания, может самостоятельно разместить языковую модель и доработать ее для конкретной цели». Это позволяет технически подкованным преступникам создавать собственные, узкоспециализированные вредоносные инструменты, которые сложно обнаружить.

Рост эффективности атак, вызванный генеративным ИИ, привел к резкому увеличению числа атак с использованием программ-вымогателей и эксплойтов в облачных средах за последние два года. Средняя стоимость утечки данных достигла исторического максимума. В ответ на это технологические гиганты начали использовать искусственный интеллект для защиты. Компании Microsoft, OpenAI и Google активно разрабатывают ИИ-инструменты для обороны.

Конкретные примеры контрмер уже существуют. Microsoft Threat Intelligence недавно пресекла крупномасштабную фишинговую кампанию, предположительно организованную с помощью ИИ. OpenAI создала инструмент для исследователей, позволяющий выявлять сгенерированные нейросетями поддельные фотографии. Google представила разработчикам ИИ-инструменты для предотвращения негативного воздействия на пользователей. Наиболее ярким примером является проект Google DeepMind под названием «Big Sleep» — ИИ, который проактивно тестирует системы на наличие уязвимостей и уже обнаружил серьезные бреши в безопасности, в том числе в браузере Chrome.

Для тестирования защитных систем используется методология «Red Teaming», заимствованная со времен холодной войны. В рамках симуляций один ИИ выступает в роли «токсичного злоумышленника», атакуя систему, чтобы выявить ее слабые места. Оборонительные ИИ-системы также эффективно распознают повторяющиеся паттерны, характерные для массовых фишинговых рассылок. Это вынуждает специалистов по безопасности работать в режиме «предположения о взломе», постоянно ожидая атаки. «Кибербезопасность всегда была гонкой вооружений, а ИИ просто поднял ставки», — заключает Кристал Морин.

Привлечение создателей темного ИИ к ответственности осложняется правовыми «серыми зонами». Разработка инструмента, даже с возможностью вредоносного использования, не всегда является незаконной. Исследователи и аналитики по кибербезопасности делают то же самое для тестирования защиты. Однако создание и распространение вредоносного ПО или мошенничество с его помощью — это уголовное преступление. Ситуация аналогична владению радар-детектором: в некоторых юрисдикциях это законно, но его использование может быть преступлением. Из-за этой правовой неопределенности до сих пор не было громких дел против создателей темного ИИ, и правоохранительные органы сосредоточены на преследовании пользователей этих инструментов.

Текущую ситуацию отличает беспрецедентная скорость, с которой развиваются как наступательные, так и оборонительные ИИ-технологии. Киберпреступники запускают атаки, защитники используют ИИ для их отражения, и обе стороны становятся умнее в результате этого противостояния. Цикл ускоряется, и главная задача отрасли кибербезопасности — гарантировать, что на каждый новый вредоносный инструмент будет готова инновационная и своевременная защита.


Новое на сайте

19104Способен ли новый чип Maia 200 от Microsoft опередить конкурентов и изменить будущее ИИ? 19103Как 20-мильная прогулка домохозяйки Лоры секор изменила ход войны 1812 года? 19102Архитектура разобщенности и шесть точек опоры в отчете US Chamber of Connection 2026 года 19101Технологичный всепогодный бинокль Canon 18x50 IS UD с активной стабилизацией для... 19100Почему «наступательный ИИ» легко обходит EDR и какая комбинированная стратегия защиты... 19099Варненское золото и истоки первой цивилизации Европы 19098Тихая пандемия: четыре ключевых тренда в борьбе с устойчивостью к антибиотикам 19097Где можно будет наблюдать «затмение века» и ближайшие полные солнечные затмения? 19096Может ли высыхание озер ускорить раскол африканской тектонической плиты? 19095Возрождение Google Glass и новая эра AI Glasses: стратегия 2026 года и уроки прошлого 19094Телескоп Джеймс Уэбб раскрыл тайны происхождения жизни в туманности улитка 19093Загадка лунной иллюзии и нейробиологические причины искажения восприятия размера 19092Древние фракийцы почитали собачье мясо как ритуальный деликатес 19091О чем расскажет уникальный инструмент из кости слона возрастом 480 000 лет? 19090Спонтанное формирование личности искусственного интеллекта на основе потребностей и...