Ssylka

ИИ Big Sleep перехватил хакерскую атаку на SQLite

Искусственный интеллект Google "Big Sleep" обнаружил критическую уязвимость в SQLite (CVE-2025-6965) до того, как она была использована хакерами. По заявлению Google, это первый случай, когда ИИ-агент напрямую предотвратил эксплуатацию уязвимости «в дикой природе». Кент Уокер, президент по глобальным вопросам Google и Alphabet, заявил: «Благодаря комбинации разведки угроз и Big Sleep, Google смог предсказать, что уязвимость вот-вот будет использована, и мы смогли пресечь это заранее».
ИИ Big Sleep перехватил хакерскую атаку на SQLite
Изображение носит иллюстративный характер

Уязвимость CVE-2025-6965 представляет собой ошибку повреждения памяти в движке баз данных SQLite. Она затрагивает все версии до 3.50.2 и получила критическую оценку CVSS 7.2. Как пояснил консультативный совет SQLite, злоумышленник, способный внедрять произвольные SQL-запросы, мог вызвать целочисленное переполнение, приводящее к чтению за пределами массива. Google охарактеризовал её как «критическую проблему безопасности», известную только угрозам и готовую к эксплуатации.

Big Sleep — это ИИ-агент Google, фреймворк для обнаружения уязвимостей с использованием больших языковых моделей (LLM). Он был запущен в 2024 году в результате совместной работы DeepMind и Google Project Zero. Ранее, в октябре 2024 года, этот же агент выявил другую уязвимость в SQLite — переполнение буфера стека, способное вызвать сбой или выполнение произвольного кода.

Параллельно с анонсом предотвращения атаки Google опубликовал Белую книгу "Secure AI Agent Framework". Её авторы — Сантьяго (Сэл) Диас, Кристоф Керн и Кара Олив — критикуют традиционные подходы: «Системы безопасности не обладают контекстным пониманием, необходимым для универсальных агентов, и могут чрезмерно ограничивать полезность». Они также отмечают недостаточность только рассуждений ИИ: «Текущие LLM уязвимы к манипуляциям, таким как инъекция промптов».

Решение Google — гибридная стратегия «защиты в глубину». Она объединяет детерминированные традиционные средства контроля с динамической защитой на основе рассуждений ИИ. Это создает «надежные границы операционной среды агента», минимизируя риск вредоносных действий, особенно от инъекции промптов. Как подчеркивают авторы: «Принудительные границы действуют как ограничители, даже если внутренний процесс рассуждений агента будет скомпрометирован». Ключевой вывод: «Ни чисто основанные на правилах системы, ни суждения на основе ИИ не являются достаточными по отдельности».


Новое на сайте

19003Какие устаревшие привычки уничтожают эффективность MTTR вашего SOC в 2026 году? 19002Критическая ошибка в GlobalProtect позволяет удаленно отключить защиту межсетевых экранов... 19001Как дешевые серверы RedVDS стали инструментом глобального мошенничества на 40 миллионов... 19000Являются ли обнаруженные телескопом «Джеймс Уэбб» загадочные объекты «коконами» для... 18999Почему внедрение ИИ-агентов создает скрытые каналы для несанкционированной эскалации... 18998Космический детектив: сверхмассивная черная дыра обрекла галактику Пабло на голодную... 18997Аномальная «звезда-зомби» RXJ0528+2838 генерирует необъяснимую радужную ударную волну 18996Эйрена против Ареса: изобретение богини мира в разгар бесконечных войн древней Греции 18995Новые методы кибератак: эксплуатация GitKraken, Facebook-фишинг и скрытые туннели... 18994Как Уилл Смит рисковал жизнью ради науки в новом глобальном путешествии? 18993Как потеря 500 миллионов фунтов привела к рождению науки о трении? 18992Как критические уязвимости в FortiSIEM и FortiFone позволяют злоумышленникам получить... 18991Что рассказывает самый полный скелет Homo habilis об эволюции человека? 18990Почему 64% сторонних приложений получают необоснованный доступ к конфиденциальным данным? 18989Почему обновление Microsoft за январь 2026 года критически важно из-за активных атак на...