Ещё пару лет назад искусственный интеллект в компаниях был, по сути, продвинутым чат-ботом. Ему задавали вопрос, он отвечал. Всё. Сейчас ситуация изменилась кардинально: ИИ-агенты отправляют письма, перемещают файлы, управляют программным обеспечением. Делают это самостоятельно, без постоянного надзора человека. И вот тут начинаются проблемы, о которых мало кто задумывается всерьёз.

Рахул Парвани, руководитель продуктового направления по безопасности ИИ в компании Airia, описывает ИИ-агента через простую, но тревожную аналогию: «Представьте нового сотрудника, у которого есть ключи от каждого офиса, но при этом нет бейджика с именем». Агент действует внутри корпоративной инфраструктуры, имеет доступ к конфиденциальным данным, но при этом остается практически невидимым для служб безопасности. Его не отслеживают те системы, которые годами выстраивались для контроля живых людей.
Собственно, в этом и заключается корень проблемы. Все традиционные инструменты защиты — пароли, многофакторная аутентификация, разграничение доступа по ролям — проектировались с расчётом на человека. На живого сотрудника, который залогинился, поработал и вышел. ИИ-агент действует иначе. Он не логинится в привычном смысле, у него нет рабочих часов, его действия не вписываются в стандартные паттерны поведения. И существующие средства защиты его просто «не видят».
Хакерам это развязывает руки совершенно по-новому. Им больше не нужно красть пароли или ломать защиту периметра. Достаточно обмануть самого агента. Как? Например, спрятать вредоносную инструкцию внутри обычного документа. Агент обрабатывает файл, натыкается на скрытую команду и выполняет её — передает данные, пересылает письмо с конфиденциальной информацией, открывает доступ к внутренним системам. Он ведь не «понимает» контекст злонамеренности. Он просто делает то, что ему подсунули.
Парвани называет это «тёмной материей идентичности». Термин неслучаен: как тёмную материю во вселенной нельзя увидеть напрямую, так и ИИ-агенты часто остаются полностью невидимыми для команд безопасности. Компания может иметь десяток работающих агентов с широкими полномочиями, и ни один из них не будет числиться ни в одном реестре учётных записей. Их попросту негде искать стандартными средствами.
На вебинаре «Beyond the Model: The Expanded Attack Surface of AI Agents» Парвани обещает разобрать конкретные механизмы того, как злоумышленники манипулируют агентами. Речь идёт не о теоретических сценариях. Демонстрируется, как «плохая идея», зашитая в документ, заставляет агента сливать корпоративные секреты. Причём атака не требует от хакера какого-то уникального технического уровня — достаточно понимать, как агент обрабатывает входящие данные.
Отдельный блок вебинара посвящен тому, что Парвани называет «режимом бога» — ситуации, когда агенту предоставляется неограниченный доступ ко всем данным компании. Это случается чаще, чем хотелось бы. Настроить агента так, чтобы он мог выполнять свою работу, но не имел избыточных полномочий, оказывается на практике нетривиальной задачей. Вебинар предлагает конкретные шаги для решения: как дать агенту достаточно прав для полезной работы, не превращая его в потенциальную точку катастрофического сбоя.
Что любопытно: целевая аудитория вебинара — не только айтишники. Парвани специально подчеркивает, что для понимания материала не нужен опыт программирования. Руководители бизнеса, менеджеры, все, кто хоть как-то отвечает за сохранность корпоративных данных, должны понимать этот новый ландшафт угроз. Потому что решение о внедрении ИИ-агентов принимают именно они, а не разработчики.
Проблема усугубляется скоростью распространения агентных систем. Компании торопятся автоматизировать рабочие процессы и часто разворачивают ИИ-агентов быстрее, чем успевают осмыслить связанные с этим риски. Когда автономная система получает доступ к внутренним базам данных, CRM, почтовым серверам и финансовым документам — вопрос «а что будет, если её обманут?» становится не абстрактным, а вполне конкретным и дорогостоящим.
По сути, индустрия кибербезопасности оказалась в ситуации, когда старые карты не годятся для новой территории. ИИ-агенты — это цифровые работники, которые действуют автономно, имеют широкие полномочия и при этом не вписываются ни в одну существующую модель контроля. Пока эта брешь не будет закрыта системно, каждый такой агент остаётся потенциальным чёрным ходом в самое сердце компании.

Изображение носит иллюстративный характер
Рахул Парвани, руководитель продуктового направления по безопасности ИИ в компании Airia, описывает ИИ-агента через простую, но тревожную аналогию: «Представьте нового сотрудника, у которого есть ключи от каждого офиса, но при этом нет бейджика с именем». Агент действует внутри корпоративной инфраструктуры, имеет доступ к конфиденциальным данным, но при этом остается практически невидимым для служб безопасности. Его не отслеживают те системы, которые годами выстраивались для контроля живых людей.
Собственно, в этом и заключается корень проблемы. Все традиционные инструменты защиты — пароли, многофакторная аутентификация, разграничение доступа по ролям — проектировались с расчётом на человека. На живого сотрудника, который залогинился, поработал и вышел. ИИ-агент действует иначе. Он не логинится в привычном смысле, у него нет рабочих часов, его действия не вписываются в стандартные паттерны поведения. И существующие средства защиты его просто «не видят».
Хакерам это развязывает руки совершенно по-новому. Им больше не нужно красть пароли или ломать защиту периметра. Достаточно обмануть самого агента. Как? Например, спрятать вредоносную инструкцию внутри обычного документа. Агент обрабатывает файл, натыкается на скрытую команду и выполняет её — передает данные, пересылает письмо с конфиденциальной информацией, открывает доступ к внутренним системам. Он ведь не «понимает» контекст злонамеренности. Он просто делает то, что ему подсунули.
Парвани называет это «тёмной материей идентичности». Термин неслучаен: как тёмную материю во вселенной нельзя увидеть напрямую, так и ИИ-агенты часто остаются полностью невидимыми для команд безопасности. Компания может иметь десяток работающих агентов с широкими полномочиями, и ни один из них не будет числиться ни в одном реестре учётных записей. Их попросту негде искать стандартными средствами.
На вебинаре «Beyond the Model: The Expanded Attack Surface of AI Agents» Парвани обещает разобрать конкретные механизмы того, как злоумышленники манипулируют агентами. Речь идёт не о теоретических сценариях. Демонстрируется, как «плохая идея», зашитая в документ, заставляет агента сливать корпоративные секреты. Причём атака не требует от хакера какого-то уникального технического уровня — достаточно понимать, как агент обрабатывает входящие данные.
Отдельный блок вебинара посвящен тому, что Парвани называет «режимом бога» — ситуации, когда агенту предоставляется неограниченный доступ ко всем данным компании. Это случается чаще, чем хотелось бы. Настроить агента так, чтобы он мог выполнять свою работу, но не имел избыточных полномочий, оказывается на практике нетривиальной задачей. Вебинар предлагает конкретные шаги для решения: как дать агенту достаточно прав для полезной работы, не превращая его в потенциальную точку катастрофического сбоя.
Что любопытно: целевая аудитория вебинара — не только айтишники. Парвани специально подчеркивает, что для понимания материала не нужен опыт программирования. Руководители бизнеса, менеджеры, все, кто хоть как-то отвечает за сохранность корпоративных данных, должны понимать этот новый ландшафт угроз. Потому что решение о внедрении ИИ-агентов принимают именно они, а не разработчики.
Проблема усугубляется скоростью распространения агентных систем. Компании торопятся автоматизировать рабочие процессы и часто разворачивают ИИ-агентов быстрее, чем успевают осмыслить связанные с этим риски. Когда автономная система получает доступ к внутренним базам данных, CRM, почтовым серверам и финансовым документам — вопрос «а что будет, если её обманут?» становится не абстрактным, а вполне конкретным и дорогостоящим.
По сути, индустрия кибербезопасности оказалась в ситуации, когда старые карты не годятся для новой территории. ИИ-агенты — это цифровые работники, которые действуют автономно, имеют широкие полномочия и при этом не вписываются ни в одну существующую модель контроля. Пока эта брешь не будет закрыта системно, каждый такой агент остаётся потенциальным чёрным ходом в самое сердце компании.