Ландшафт искусственного интеллекта претерпел фундаментальные изменения: мы перешли от моделей, которые просто пишут код, к системам, способным его исполнять. Такие инструменты, как Copilot, Claude Code и Codex, больше не ограничиваются генерацией текста; теперь они могут создавать, тестировать и развертывать программное обеспечение от начала до конца за считанные минуты. Эта эволюция наделяет ИИ беспрецедентными возможностями, но одновременно создает значительный разрыв в безопасности, который часто остается невидимым вплоть до момента критического сбоя.

В основе этих автономных рабочих процессов лежит скрытый уровень управления, известный как протоколы управления машинами (MCP). Эти протоколы фактически являются командным центром для агентного ИИ, определяя, что именно может запустить агент, какие инструменты он имеет право вызывать, к каким API обращаться и с какими элементами инфраструктуры взаимодействовать. Именно MCP решают границы дозволенного для автоматизированных систем, превращая их из пассивных помощников в активных участников процесса разработки.
Главная угроза заключается в том, что при компрометации или неправильной конфигурации MCP агент начинает действовать с полными полномочиями, превращая полезную автоматизацию в вектор атаки. Если протокол управления нарушен, система не просто выполняет ошибочную команду, она действует авторизованно, но во вред. Это подчеркивает критическую важность понимания того, что серверы MCP для безопасности важнее, чем сами модели искусственного интеллекта.
Ярким примером реализации подобного риска стал инцидент, получивший идентификатор CVE-2025-6514. Уязвимость была обнаружена в доверенном прокси-сервере OAuth, который использовали более 500 000 разработчиков. Этот недостаток создал прямой путь для удаленного выполнения кода (RCE). Примечательно, что для атаки не потребовалось сложной цепочки эксплойтов или шумного взлома — это была просто автоматизация, выполняющая то, что ей было разрешено делать, но в огромных масштабах.
Урок данного инцидента однозначен: если агент может выполнять команды, он может выполнять и атаки. Традиционные модели идентификации и доступа ломаются, когда агенты начинают действовать от имени пользователей. Это приводит к таким проблемам, как разрастание теневых ключей API, источники которых часто остаются неясными для служб безопасности до момента аудита или инцидента.
Эти вопросы детально рассматриваются в рамках живого вебинара под полным названием «Обеспечение безопасности агентного ИИ: от MCP и доступа к инструментам до разрастания теневых ключей API» (Securing Agentic AI: From MCPs and Tool Access to Shadow API Key Sprawl). Мероприятие ориентировано на команды, стремящиеся сохранить высокую скорость разработки без потери контроля, а также на специалистов по безопасности, наследующих риски от внедрения агентного ИИ. Спикером выступает автор технического документа OpenID под названием «Управление идентификацией для агентного ИИ» (Identity Management for Agentic AI).
Участники вебинара получат знания о том, как вредоносные или скомпрометированные MCP превращают автоматизацию в угрозу, и научатся выявлять и устранять теневые ключи API. Ключевым аспектом обучения станет управление: как проводить аудит действий агента и принудительно применять политики безопасности еще до развертывания системы. Будут представлены практические меры контроля, позволяющие обезопасить агентный ИИ без замедления процессов разработки.
Агентный ИИ уже проник в конвейеры разработки, и главная задача сейчас — определить, способны ли организации видеть действия ИИ и останавливать его, когда он выходит за рамки дозволенного. Регистрация на живую сессию необходима тем, кто намерен вернуть контроль над стеком ИИ до возникновения инцидента, обеспечив защиту от рисков, связанных с переходом от написания кода к его исполнению.

Изображение носит иллюстративный характер
В основе этих автономных рабочих процессов лежит скрытый уровень управления, известный как протоколы управления машинами (MCP). Эти протоколы фактически являются командным центром для агентного ИИ, определяя, что именно может запустить агент, какие инструменты он имеет право вызывать, к каким API обращаться и с какими элементами инфраструктуры взаимодействовать. Именно MCP решают границы дозволенного для автоматизированных систем, превращая их из пассивных помощников в активных участников процесса разработки.
Главная угроза заключается в том, что при компрометации или неправильной конфигурации MCP агент начинает действовать с полными полномочиями, превращая полезную автоматизацию в вектор атаки. Если протокол управления нарушен, система не просто выполняет ошибочную команду, она действует авторизованно, но во вред. Это подчеркивает критическую важность понимания того, что серверы MCP для безопасности важнее, чем сами модели искусственного интеллекта.
Ярким примером реализации подобного риска стал инцидент, получивший идентификатор CVE-2025-6514. Уязвимость была обнаружена в доверенном прокси-сервере OAuth, который использовали более 500 000 разработчиков. Этот недостаток создал прямой путь для удаленного выполнения кода (RCE). Примечательно, что для атаки не потребовалось сложной цепочки эксплойтов или шумного взлома — это была просто автоматизация, выполняющая то, что ей было разрешено делать, но в огромных масштабах.
Урок данного инцидента однозначен: если агент может выполнять команды, он может выполнять и атаки. Традиционные модели идентификации и доступа ломаются, когда агенты начинают действовать от имени пользователей. Это приводит к таким проблемам, как разрастание теневых ключей API, источники которых часто остаются неясными для служб безопасности до момента аудита или инцидента.
Эти вопросы детально рассматриваются в рамках живого вебинара под полным названием «Обеспечение безопасности агентного ИИ: от MCP и доступа к инструментам до разрастания теневых ключей API» (Securing Agentic AI: From MCPs and Tool Access to Shadow API Key Sprawl). Мероприятие ориентировано на команды, стремящиеся сохранить высокую скорость разработки без потери контроля, а также на специалистов по безопасности, наследующих риски от внедрения агентного ИИ. Спикером выступает автор технического документа OpenID под названием «Управление идентификацией для агентного ИИ» (Identity Management for Agentic AI).
Участники вебинара получат знания о том, как вредоносные или скомпрометированные MCP превращают автоматизацию в угрозу, и научатся выявлять и устранять теневые ключи API. Ключевым аспектом обучения станет управление: как проводить аудит действий агента и принудительно применять политики безопасности еще до развертывания системы. Будут представлены практические меры контроля, позволяющие обезопасить агентный ИИ без замедления процессов разработки.
Агентный ИИ уже проник в конвейеры разработки, и главная задача сейчас — определить, способны ли организации видеть действия ИИ и останавливать его, когда он выходит за рамки дозволенного. Регистрация на живую сессию необходима тем, кто намерен вернуть контроль над стеком ИИ до возникновения инцидента, обеспечив защиту от рисков, связанных с переходом от написания кода к его исполнению.