Искусственный интеллект Google "Big Sleep" обнаружил критическую уязвимость в SQLite (CVE-2025-6965) до того, как она была использована хакерами. По заявлению Google, это первый случай, когда ИИ-агент напрямую предотвратил эксплуатацию уязвимости «в дикой природе». Кент Уокер, президент по глобальным вопросам Google и Alphabet, заявил: «Благодаря комбинации разведки угроз и Big Sleep, Google смог предсказать, что уязвимость вот-вот будет использована, и мы смогли пресечь это заранее».

Уязвимость CVE-2025-6965 представляет собой ошибку повреждения памяти в движке баз данных SQLite. Она затрагивает все версии до 3.50.2 и получила критическую оценку CVSS 7.2. Как пояснил консультативный совет SQLite, злоумышленник, способный внедрять произвольные SQL-запросы, мог вызвать целочисленное переполнение, приводящее к чтению за пределами массива. Google охарактеризовал её как «критическую проблему безопасности», известную только угрозам и готовую к эксплуатации.
Big Sleep — это ИИ-агент Google, фреймворк для обнаружения уязвимостей с использованием больших языковых моделей (LLM). Он был запущен в 2024 году в результате совместной работы DeepMind и Google Project Zero. Ранее, в октябре 2024 года, этот же агент выявил другую уязвимость в SQLite — переполнение буфера стека, способное вызвать сбой или выполнение произвольного кода.
Параллельно с анонсом предотвращения атаки Google опубликовал Белую книгу "Secure AI Agent Framework". Её авторы — Сантьяго (Сэл) Диас, Кристоф Керн и Кара Олив — критикуют традиционные подходы: «Системы безопасности не обладают контекстным пониманием, необходимым для универсальных агентов, и могут чрезмерно ограничивать полезность». Они также отмечают недостаточность только рассуждений ИИ: «Текущие LLM уязвимы к манипуляциям, таким как инъекция промптов».
Решение Google — гибридная стратегия «защиты в глубину». Она объединяет детерминированные традиционные средства контроля с динамической защитой на основе рассуждений ИИ. Это создает «надежные границы операционной среды агента», минимизируя риск вредоносных действий, особенно от инъекции промптов. Как подчеркивают авторы: «Принудительные границы действуют как ограничители, даже если внутренний процесс рассуждений агента будет скомпрометирован». Ключевой вывод: «Ни чисто основанные на правилах системы, ни суждения на основе ИИ не являются достаточными по отдельности».

Изображение носит иллюстративный характер
Уязвимость CVE-2025-6965 представляет собой ошибку повреждения памяти в движке баз данных SQLite. Она затрагивает все версии до 3.50.2 и получила критическую оценку CVSS 7.2. Как пояснил консультативный совет SQLite, злоумышленник, способный внедрять произвольные SQL-запросы, мог вызвать целочисленное переполнение, приводящее к чтению за пределами массива. Google охарактеризовал её как «критическую проблему безопасности», известную только угрозам и готовую к эксплуатации.
Big Sleep — это ИИ-агент Google, фреймворк для обнаружения уязвимостей с использованием больших языковых моделей (LLM). Он был запущен в 2024 году в результате совместной работы DeepMind и Google Project Zero. Ранее, в октябре 2024 года, этот же агент выявил другую уязвимость в SQLite — переполнение буфера стека, способное вызвать сбой или выполнение произвольного кода.
Параллельно с анонсом предотвращения атаки Google опубликовал Белую книгу "Secure AI Agent Framework". Её авторы — Сантьяго (Сэл) Диас, Кристоф Керн и Кара Олив — критикуют традиционные подходы: «Системы безопасности не обладают контекстным пониманием, необходимым для универсальных агентов, и могут чрезмерно ограничивать полезность». Они также отмечают недостаточность только рассуждений ИИ: «Текущие LLM уязвимы к манипуляциям, таким как инъекция промптов».
Решение Google — гибридная стратегия «защиты в глубину». Она объединяет детерминированные традиционные средства контроля с динамической защитой на основе рассуждений ИИ. Это создает «надежные границы операционной среды агента», минимизируя риск вредоносных действий, особенно от инъекции промптов. Как подчеркивают авторы: «Принудительные границы действуют как ограничители, даже если внутренний процесс рассуждений агента будет скомпрометирован». Ключевой вывод: «Ни чисто основанные на правилах системы, ни суждения на основе ИИ не являются достаточными по отдельности».