Почти 70% крупных компаний уже используют ИИ-агентов в продакшене. Ещё 23% планируют развернуть их в 2026 году. Две трети организаций строят агентов самостоятельно, внутри собственной инфраструктуры. Эти цифры из опроса Team8 CISO Village за 2025 год рисуют картину, которая мало похожа на осторожное «присматриваемся к технологии». Это массовое внедрение. И оно идёт быстрее, чем корпоративные системы безопасности успевают адаптироваться.

Gartner отреагировал на эту ситуацию выпуском первого в истории Market Guide по так называемым Guardian Agents — решениям для контроля и управления ИИ-агентами. Market Guide — это специфический формат отчёта. Gartner не ранжирует вендоров и не расставляет их по квадрантам. Задача другая: обозначить границы раннего, ещё хаотичного рынка, сформулировать краткосрочные ожидания и описать характерные атрибуты представленных на нём игроков. Само появление такого документа — сигнал того, что проблема управления ИИ-агентами перестала быть теоретической.
Что вообще такое ИИ-агент в контексте корпоративной безопасности? Любая система, которая может не только отвечать, но и действовать. Выполнять запросы, обращаться к API, менять данные, запускать процессы. Проблема в том, что стремительное внедрение таких агентов обгоняет традиционные механизмы управления доступом и комплаенса. Риски операционных сбоев и нарушения нормативных требований нарастают лавинообразно.
Компания Orchid Security, которая ранее публиковала материалы в The Hacker News, ввела термин «Identity Dark Matter» — тёмная материя идентичности. Это невидимый и неуправляемый слой, который возникает при развёртывании ИИ-агентов: локальные учётные данные в открытом тексте, токены без срока действия, осиротевшие и неактивные аккаунты, избыточные или полные права доступа. Вся эта масса копится незаметно. И здесь всплывает другое понятие от Orchid Security — «ленивые LLM» (Lazy LLMs). Суть в том, что ИИ-агенты по своей природе ищут кратчайший путь к выполнению задачи. Они эксплуатируют эту «тёмную материю», чтобы добраться до результата, и по дороге могут спровоцировать инциденты, которых никто не предвидел. Данные из глобального отчёта CrowdStrike об угрозах за 2026 год подтверждают опасения: злоумышленники активно эксплуатируют ИИ-системы и злоупотребляют платформами разработки. Вредоносные промпты были внедрены в генеративные ИИ-инструменты более чем в 90 организациях.
В своём руководстве Gartner выделяет девять функциональных возможностей для управления агентами, сгруппированных по двум направлениям. Первое — непрерывная проверка и оценка: агенты должны оставаться защищёнными от компрометации и соответствовать требованиям на протяжении всего жизненного цикла. Второе — инспекция и контроль в реальном времени: действия и результаты ИИ-агентов должны совпадать с заданными намерениями, целями и политиками, чтобы предотвращать непредусмотренное поведение.
Orchid Security предлагает пять принципов безопасного управления ИИ-агентами, которые плотно стыкуются с рекомендациями Gartner. Первый: за каждым агентом должен стоять конкретный человек-спонсор. Агент должен быть идентифицирован, его действия — отслежены, а ответственность — привязана к оператору. Второй: никаких постоянных привилегий. Права доступа агента должны быть ограничены по времени, привязаны к сессии и выстроены по принципу минимально необходимых полномочий. Третий: полная прозрачность и аудируемость. Нужно точно знать, к каким данным агент обращался, что изменил, что экспортировал и касался ли он регулируемых датасетов. Четвёртый: управление должно охватывать всю организацию — и новые, и устаревшие системы — в рамках единой ткани governance, без разрозненных команд безопасности, комплаенса и инфраструктуры, живущих в отдельных бункерах. Пятый: строгая гигиена управления идентификацией и доступом (IAM) на серверах приложений и на MCP-серверах (Model Context Protocol) — в части потоков аутентификации и разрешений авторизации.
Gartner также описал шесть формирующихся моделей доставки и интеграции решений, и каждая из них определяет, где живёт контроль, какой уровень видимости достижим и как обеспечивается политика. Автономные платформы наблюдения — самая простая отправная точка: собирают логи, телеметрию, события. Но они скорее наблюдают, чем вмешиваются. AI/MCP-шлюзы создают централизованную точку контроля, пропуская трафик агентов через промежуточный слой. Минус — шлюз может стать узким местом, а если трафик его обходит, создаётся ложное ощущение безопасности.
Встраиваемые модули реального времени располагаются внутри платформы агента, платформы управления ИИ или LLM-прокси. Они обеспечивают немедленную реакцию, но жёстко привязаны к конкретной платформе и плохо масштабируются на уровень предприятия. Расширения оркестрационного слоя добавляют политику и видимость на уровне рабочих процессов — но только при условии, что организация действительно пропускает всех агентов через единый оркестратор. Гибридные модели edge-cloud распределяют надзор между локальными точками и облачной аналитикой ради снижения задержки, однако распределённое управление сложно реализовать корректно. Наконец, координационные механизмы — стандарты, API, хуки — выступают соединительной тканью между компонентами. На бумаге выглядит логично, но на практике этот подход крайне незрел, стандартизированные интерфейсы между AI-платформами пока просто отсутствуют.
Фундаментальная сложность вот в чём: ИИ-агенты не живут в одном месте. Они взаимодействуют с API, приложениями, данными и другими агентами в множестве сред. Ни одна отдельная платформа, ни один облачный провайдер не способен обеспечить governance в одиночку. Gartner фактически фиксирует: управление агентами не может быть нативным надзором внутри платформы. Оно должно быть корпоративным, принадлежащим самой организации.
Orchid Security предупреждает, что ждать нельзя — «лошадь вот-вот выскочит из конюшни». Компания заявляет, что строит инфраструктуру идентичности для устранения «тёмной материи» и обеспечения безопасного внедрения ИИ-агентов в масштабах предприятия. Установить IAM-ограничители для ИИ-агентов нужно сейчас, пока объём неуправляемых учётных записей, токенов и прав не вышел за пределы, откуда возврат будет стоить намного дороже.

Изображение носит иллюстративный характер
Gartner отреагировал на эту ситуацию выпуском первого в истории Market Guide по так называемым Guardian Agents — решениям для контроля и управления ИИ-агентами. Market Guide — это специфический формат отчёта. Gartner не ранжирует вендоров и не расставляет их по квадрантам. Задача другая: обозначить границы раннего, ещё хаотичного рынка, сформулировать краткосрочные ожидания и описать характерные атрибуты представленных на нём игроков. Само появление такого документа — сигнал того, что проблема управления ИИ-агентами перестала быть теоретической.
Что вообще такое ИИ-агент в контексте корпоративной безопасности? Любая система, которая может не только отвечать, но и действовать. Выполнять запросы, обращаться к API, менять данные, запускать процессы. Проблема в том, что стремительное внедрение таких агентов обгоняет традиционные механизмы управления доступом и комплаенса. Риски операционных сбоев и нарушения нормативных требований нарастают лавинообразно.
Компания Orchid Security, которая ранее публиковала материалы в The Hacker News, ввела термин «Identity Dark Matter» — тёмная материя идентичности. Это невидимый и неуправляемый слой, который возникает при развёртывании ИИ-агентов: локальные учётные данные в открытом тексте, токены без срока действия, осиротевшие и неактивные аккаунты, избыточные или полные права доступа. Вся эта масса копится незаметно. И здесь всплывает другое понятие от Orchid Security — «ленивые LLM» (Lazy LLMs). Суть в том, что ИИ-агенты по своей природе ищут кратчайший путь к выполнению задачи. Они эксплуатируют эту «тёмную материю», чтобы добраться до результата, и по дороге могут спровоцировать инциденты, которых никто не предвидел. Данные из глобального отчёта CrowdStrike об угрозах за 2026 год подтверждают опасения: злоумышленники активно эксплуатируют ИИ-системы и злоупотребляют платформами разработки. Вредоносные промпты были внедрены в генеративные ИИ-инструменты более чем в 90 организациях.
В своём руководстве Gartner выделяет девять функциональных возможностей для управления агентами, сгруппированных по двум направлениям. Первое — непрерывная проверка и оценка: агенты должны оставаться защищёнными от компрометации и соответствовать требованиям на протяжении всего жизненного цикла. Второе — инспекция и контроль в реальном времени: действия и результаты ИИ-агентов должны совпадать с заданными намерениями, целями и политиками, чтобы предотвращать непредусмотренное поведение.
Orchid Security предлагает пять принципов безопасного управления ИИ-агентами, которые плотно стыкуются с рекомендациями Gartner. Первый: за каждым агентом должен стоять конкретный человек-спонсор. Агент должен быть идентифицирован, его действия — отслежены, а ответственность — привязана к оператору. Второй: никаких постоянных привилегий. Права доступа агента должны быть ограничены по времени, привязаны к сессии и выстроены по принципу минимально необходимых полномочий. Третий: полная прозрачность и аудируемость. Нужно точно знать, к каким данным агент обращался, что изменил, что экспортировал и касался ли он регулируемых датасетов. Четвёртый: управление должно охватывать всю организацию — и новые, и устаревшие системы — в рамках единой ткани governance, без разрозненных команд безопасности, комплаенса и инфраструктуры, живущих в отдельных бункерах. Пятый: строгая гигиена управления идентификацией и доступом (IAM) на серверах приложений и на MCP-серверах (Model Context Protocol) — в части потоков аутентификации и разрешений авторизации.
Gartner также описал шесть формирующихся моделей доставки и интеграции решений, и каждая из них определяет, где живёт контроль, какой уровень видимости достижим и как обеспечивается политика. Автономные платформы наблюдения — самая простая отправная точка: собирают логи, телеметрию, события. Но они скорее наблюдают, чем вмешиваются. AI/MCP-шлюзы создают централизованную точку контроля, пропуская трафик агентов через промежуточный слой. Минус — шлюз может стать узким местом, а если трафик его обходит, создаётся ложное ощущение безопасности.
Встраиваемые модули реального времени располагаются внутри платформы агента, платформы управления ИИ или LLM-прокси. Они обеспечивают немедленную реакцию, но жёстко привязаны к конкретной платформе и плохо масштабируются на уровень предприятия. Расширения оркестрационного слоя добавляют политику и видимость на уровне рабочих процессов — но только при условии, что организация действительно пропускает всех агентов через единый оркестратор. Гибридные модели edge-cloud распределяют надзор между локальными точками и облачной аналитикой ради снижения задержки, однако распределённое управление сложно реализовать корректно. Наконец, координационные механизмы — стандарты, API, хуки — выступают соединительной тканью между компонентами. На бумаге выглядит логично, но на практике этот подход крайне незрел, стандартизированные интерфейсы между AI-платформами пока просто отсутствуют.
Фундаментальная сложность вот в чём: ИИ-агенты не живут в одном месте. Они взаимодействуют с API, приложениями, данными и другими агентами в множестве сред. Ни одна отдельная платформа, ни один облачный провайдер не способен обеспечить governance в одиночку. Gartner фактически фиксирует: управление агентами не может быть нативным надзором внутри платформы. Оно должно быть корпоративным, принадлежащим самой организации.
Orchid Security предупреждает, что ждать нельзя — «лошадь вот-вот выскочит из конюшни». Компания заявляет, что строит инфраструктуру идентичности для устранения «тёмной материи» и обеспечения безопасного внедрения ИИ-агентов в масштабах предприятия. Установить IAM-ограничители для ИИ-агентов нужно сейчас, пока объём неуправляемых учётных записей, токенов и прав не вышел за пределы, откуда возврат будет стоить намного дороже.