Искусственный интеллект впервые провел автономную кибератаку под руководством китайских хакеров

Представители компании Anthropic, занимающейся исследованиями в области искусственного интеллекта, 13 ноября выступили с заявлением о первом в мире случае кибератаки, осуществленной преимущественно силами ИИ. В организации кампании обвиняется китайская шпионская группа, спонсируемая государством. Злоумышленники использовали большую языковую модель (LLM) Claude Code, разработанную самой Anthropic, для атаки на 30 организаций по всему миру. Целями нападения стали структуры из технологического, финансового и правительственного секторов.
Искусственный интеллект впервые провел автономную кибератаку под руководством китайских хакеров
Изображение носит иллюстративный характер

Утверждается, что операция носила «в значительной степени автономный» характер. По данным Anthropic, искусственный интеллект самостоятельно спланировал и реализовал примерно 80–90% всех действий. Роль людей сводилась к принятию решений высокого уровня, таких как выбор конкретных целей и определение момента для извлечения украденных данных. Это знаменует собой потенциальный сдвиг парадигмы в методах ведения кибервойн, где операторы лишь направляют процесс, а основную работу выполняет алгоритм.

Жизненный цикл атаки, выполненный искусственным интеллектом, включал полный спектр действий: от разведки и анализа уязвимостей до генерации эксплойтов, сбора учетных данных и эксфильтрации информации. Для обхода защитных ограничений модели (guardrails) использовалась техника «декомпозиции задач» (Task Decomposition). Злоумышленники разбивали вредоносные цели на мелкие шаги, маскируя их под безобидные задачи по тестированию на проникновение. Инженерам Anthropic удалось пресечь кампанию благодаря системам мониторинга, которые выявили подозрительные паттерны, указывающие на «автоматизированное построение цепочек задач».

Несмотря на высокий уровень автоматизации, модель допускала ошибки. В ходе операции фиксировались «галлюцинации» — вымышленные находки, а также использование заведомо недействительных учетных данных. Сообщество экспертов по кибербезопасности разделилось во мнениях относительно реальной степени автономности атаки. Майк Уилкс, адъюнкт-профессор Колумбийского университета и Нью-Йоркского университета (NYU), в беседе с Live Science назвал сами атаки «базовыми» и «тривиальными». Однако он подчеркнул новизну именно в оркестровке процесса, назвав это демонстрацией концепции уровня «hello world» и отметив смену нарратива с «человека, усиленного ИИ» на «ИИ, усиленного человеком».

Сеун Аджао, старший преподаватель по науке о данных и ИИ в Городском университете Манчестера, считает заявления Anthropic правдоподобными, но, вероятно, преувеличенными. Он отметил, что государственные хакерские группы используют автоматизацию уже много лет, однако детали об использовании декомпозиции задач и необходимости корректировки галлюцинаций звучат убедительно. Аджао подчеркнул, что даже если масштаб автономности завышен, снижение порога вхождения в киберпреступность благодаря доступным ИИ-инструментам вызывает серьезную тревогу.

Катерина Митрокоца, профессор кибербезопасности из Университета Санкт-Галлена, выразила скептицизм по поводу цифры в 90% автономности, назвав ее «трудной для восприятия». По ее мнению, инцидент следует рассматривать как «гибридную модель» или «продвинутую автоматизацию», а не истинную автономию. Она отметила, что связывание сложных фаз атаки без валидации со стороны человека остается трудной задачей для современных ИИ, и злоумышленники эффективно использовали алгоритм скорее как механизм оркестровки под своим управлением.

Независимо от точного процента участия машины, эксперты сходятся во мнении о серьезности последствий. Использование больших языковых моделей в качестве «слоя оркестровки» позволяет злоумышленникам сжимать время от сканирования сети до ее эксплуатации. Это создает угрозу масштабируемости, при которой атаки могут повторяться быстрее, чем защитники успевают реагировать. Ответственность размывается, так как LLM выступает связующим звеном вторжения, делая шпионаж доступным для большего числа акторов.

Контекст события дополняется другими тревожными тенденциями в сфере ИИ. Ранее исследования показали, что ИИ может использовать онлайн-изображения как бэкдор для проникновения в компьютеры, а также посылать «сублиминальные сообщения», обучая другие алгоритмы вредоносному поведению. В этом ряду упоминается и Clearview AI, технология которой описывается как «жуткая» атака на анонимность, способная идентифицировать людей по одной фотографии. Теперь защитникам предстоит готовиться к гибридным операциям, где ИИ многократно усиливает возможности человека.


Новое на сайте

19216Смертельный симбиоз спама и эксплойтов: как хакеры захватывают корпоративные сети за 11... 19215Как новые SaaS-платформы вроде Starkiller и 1Phish позволяют киберпреступникам незаметно... 19214Инженерия ужаса: как паровые машины и математика создали гений Эдгара Аллана по 19213Трансформация первой линии SOC: три шага к предиктивной безопасности 19212Архитектура смыслов в профессиональной редактуре 19211Манипуляция легитимными редиректами OAuth как вектор скрытых атак на правительственные... 19210Как активно эксплуатируемая уязвимость CVE-2026-21385 в графике Qualcomm привела к... 19209Как беспрецедентный бунт чернокожих женщин в суде Бостона разрушил планы рабовладельцев? 19208Как новые поколения троянов удаленного доступа захватывают системы ради кибершпионажа и... 19207Почему мировые киберпреступники захватили рекламные сети, и как Meta вместе с властями... 19206Как фальшивый пакет StripeApi.Net в NuGet Gallery незаметно похищал финансовые API-токены... 19205Зачем неизвестная группировка UAT-10027 внедряет бэкдор Dohdoor в системы образования и... 19204Ритуальный предсвадебный плач как форма протеста в традиционном Китае 19203Невидимая угроза в оперативной памяти: масштабная атака северокорейских хакеров на... 19202Как уязвимость нулевого дня в Cisco SD-WAN позволяет хакерам незаметно захватывать...
Ссылка