Кто на самом деле стоит за действиями ИИ-агентов: проблема делегирования полномочий

ИИ-агенты не обладают собственной властью. Это звучит контринтуитивно, но именно это делает их особенно опасными с точки зрения корпоративной безопасности. Когда агент выполняет задачу, он действует не от своего имени — он действует от имени того, кто его запустил. Человека. Сервисного аккаунта. Бота. Другой машины. И вот здесь кроется настоящая проблема, которую принято называть «разрывом полномочий ИИ-агента» (AI Agent Authority Gap).
Кто на самом деле стоит за действиями ИИ-агентов: проблема делегирования полномочий
Изображение носит иллюстративный характер

Традиционные системы управления идентификацией и доступом, IAM, были спроектированы вокруг одного вопроса: кто имеет доступ? Это работало, пока «кто» означало человека или конкретную систему с понятными границами. Сейчас вопрос стал сложнее: какие полномочия делегированы, кем именно, при каких условиях и с какой целью? Это не терминологическое усложнение, а принципиальная смена логики управления. Классический IAM на этот вопрос отвечать не умеет.
Разрыв, о котором идёт речь, это по сути делегационный разрыв. Предприятия пытаются управлять самим агентом, не разобравшись сначала с идентичностями, которые его запускают. Это всё равно что ужесточать контроль на выходе из здания, оставив входную дверь открытой. Агент наследует полномочия от своего источника — и если этот источник плохо контролируется, агент становится не просто уязвимостью, а её усилителем.
Проблему усугубляет то, что корпоративные идентичности сегодня сильно фрагментированы. Они живут в приложениях, встроенных учётных данных, неуправляемых сервисных аккаунтах, API, бизнес-логике конкретных систем. Всё это — то, что компания Orchid называет «identity dark matter», тёмная материя идентичности. Это полномочия, которые существуют, работают и накапливают риски за пределами видимости любых управляемых систем. Когда ИИ-агент получает делегированные права от такого невидимого источника, он действует в полной слепоте — и компания вместе с ним.
Orchid предлагает начинать не с агента, а с источника делегирования. Последовательность имеет значение. Прежде чем выстраивать управление ИИ-агентами, нужно разобраться с традиционными акторами: людьми, машинами, ботами, сервисными аккаунтами, нечеловеческими идентичностями. Нужно устранить тёмную материю идентичности и установить верифицированную базовую линию реального поведения идентичностей — не статические политики, а живое понимание того, что происходит на самом деле.
Модель непрерывной наблюдаемости Orchid (Orchid's Continuous Observability Model) как раз занимается этим. Она не просто делает идентичности видимыми — она превращает эту видимость в механизм управления. Телеметрия собирается постоянно, и данные о поведении традиционных акторов поступают в реальном времени в то, что Orchid называет слоем делегирования полномочий агентного ИИ (Agent-AI Delegation Authority Layer). Это не архивирование событий постфактум, а живой механизм принятия решений.
Как работает этот механизм на практике? Когда агент запрашивает право действовать, система оценивает четыре переменных одновременно: профиль полномочий делегирующего актора, контекст целевого приложения, намерение за запрошенным действием, и реальный охват выполнения. На основе этого анализа система принимает решение с машинной скоростью: агент может действовать, может рекомендовать, ограничивается минимальным набором инструментов или останавливается полностью.
Ключевое правило, которое здесь работает: чем слабее, рискованнее или менее понятен делегирующий актор, тем жёстче должны быть ограничения на действия агента. Это логика, противоположная тому, как сейчас устроено большинство корпоративных систем. Обычно ограничения накладываются на агента по умолчанию и снимаются по запросу. Orchid предлагает динамический подход: полномочия агента формируются в реальном времени исходя из состояния его источника делегирования.
Итоговое состояние, к которому ведёт эта архитектура, называется динамическим последовательным контролем делегирования (Dynamic Sequential Delegation Control). Это не разовая проверка при выдаче прав доступа, а непрерывный процесс, где каждое действие агента оценивается заново с учётом актуального контекста. Такой подход позволяет реагировать не на инциденты, которые уже произошли, а предотвращать их до того, как агент успеет нанести ущерб.
Почему это важно именно сейчас? Потому что ИИ-агенты принципиально отличаются от программного обеспечения прошлых поколений. Они не просто выполняют заданные операции — они интерпретируют контекст, принимают промежуточные решения, взаимодействуют с другими системами. При этом они полностью неотделимы от идентичностей, которые их запускают. Любая попытка управлять агентом в обход управления его источником делегирования — это иллюзия контроля.
Путь, который описывает Orchid, состоит из трёх шагов: сначала сократить тёмную материю идентичности, затем выстроить непрерывную наблюдаемость за реальным поведением идентичностей, и только потом использовать эти данные как входные для слоя делегирования полномочий агентного ИИ. Без первых двух шагов третий не имеет смысла. Именно эта последовательность, по сути, и является тем мостом, которого не хватает между классическим IAM и безопасным внедрением агентного ИИ в корпоративную среду.


Новое на сайте

19987Китайские хакерские группы атакуют правительства и журналистов по всему миру 19986Как 30 000 аккаунтов Facebook оказались в руках вьетнамских хакеров? 19985LofyGang вернулась: как бразильские хакеры охотятся на геймеров через поддельные читы 19984Автономная проверка защиты: как не отстать от ИИ-атак 19983Взлом Trellix: хакеры добрались до исходного кода одной из ведущих компаний по... 19982Почему почти 3000 монет в норвежском поле перевернули представление о викингах? 19981Как поддельная CAPTCHA опустошает ваш счёт и крадёт криптовалюту? 19980Слежка за каждым шагом: как ИИ превращает государство в машину тотального контроля 19979Как хакеры грабят компании через звонок в «техподдержку» 19978Почему именно Нью-Йорк стал самым уязвимым городом восточного побережья перед... 19977Как одна команда git push открывала доступ к миллионам репозиториев 19976Зачем древние народы убивали ножами и мечами: оружие как основа власти 19975Как Python-бэкдор DEEPDOOR крадёт ваши облачные пароли незаметно? 19974Послание в бутылке: математика невозможного 19973Почему ИИ-инфраструктура стала новой целью хакеров быстрее, чем ждали все?
Ссылка