По данным опроса Salesforce за 2024 год, 55% сотрудников признались, что пользуются ИИ-инструментами, которые не были одобрены их организацией. Больше половины. Каждый второй коллега за соседним столом, возможно, прямо сейчас скармливает корпоративные данные ChatGPT или Claude, а служба безопасности об этом даже не подозревает. Это явление получило название Shadow AI — теневой ИИ, и оно стремительно превращается в одну из самых недооценённых проблем корпоративной кибербезопасности.

Теневой ИИ — это использование сотрудниками искусственного интеллекта без формального одобрения, контроля или даже видимости со стороны ИТ-отделов и команд безопасности. Понятие похоже на более старый термин «теневое ИТ» (Shadow IT), когда работники ставят неодобренный софт. Но разница принципиальная: ИИ-системы не просто работают с данными, они их активно обрабатывают, генерируют и сохраняют. Когда менеджер вставляет в чат-бот клиентскую базу, чтобы быстрее написать отчёт, эти данные уходят на сторонний сервер, и компания теряет над ними всякий контроль.
Почему это распространяется так быстро? Всё банально. Генеративные ИИ-инструменты не требуют почти никакой настройки — открыл браузер, зарегистрировался, получил результат. Традиционный корпоративный софт проходит через месяцы согласований, а ChatGPT начинает помогать через тридцать секунд. При этом у большинства организаций до сих пор нет внятных политик использования ИИ. Сотрудники принимают решения о безопасности самостоятельно — и чаще всего они эти решения принимают плохо. Отдельные отделы интегрируют сторонние ИИ-модели и API в свои приложения вообще без какого-либо ревью со стороны безопасников.
Теневой ИИ — это проблема безопасности, а не просто вопрос корпоративного управления. Сотрудники делятся с ИИ-платформами клиентскими данными, финансовой информацией, внутренними документами. Разработчики вставляют в окно чата скрипты с зашитыми API-ключами, учётными данными баз данных и токенами доступа. Как только эта информация попадает на стороннюю платформу, организация теряет все журналы аудита. Расследовать утечку становится практически невозможно. А неконтролируемая передача данных может запросто привести к нарушениям GDPR или HIPAA — с вполне конкретными штрафами и обязательными уведомлениями.
Параллельно теневой ИИ быстро расширяет поверхность атаки. Непроверенные API и плагины могут оказаться небезопасными или откровенно вредоносными. Если сотрудник использует личный аккаунт или личное устройство для работы с ИИ, традиционный мониторинг сети его просто не увидит. Отдельная история — автономные «ИИ-агенты», которые перемещаются между несколькими платформами и создают сложные скрытые маршруты передачи данных. Для киберпреступников такие маршруты — подарок.
Есть и техническая проблема обнаружения. Большинство ИИ-платформ работают через HTTPS, и стандартные межсетевые экраны без SSL-инспекции (а у многих организаций её нет) остаются слепыми к этому трафику. Разговорные ИИ-интерфейсы ведут себя не так, как привычные приложения — они не логируются стандартными средствами, не вызывают срабатываний алертов, когда данные покидают периметр. С точки зрения систем безопасности, ничего подозрительного не происходит.
Отдельный пласт риска связан с управлением идентификацией — IAM. Сотрудники создают десятки разрозненных личных аккаунтов на различных ИИ-платформах. Эти учётные записи никем не управляются и не контролируются. Разработчики подключают ИИ-инструменты через сервисные аккаунты, порождая так называемые «нечеловеческие идентичности» (Non-Human Identities, NHIs) — автоматизированные сущности с доступом к системам, за которыми никто не следит. Каждая такая идентичность — потенциальная точка несанкционированного доступа.
Что с этим делать? Блокировать ИИ целиком — путь в никуда. Использование искусственного интеллекта уже стало нормой, и в крупных организациях какая-то степень теневого ИИ неизбежна. Разумная стратегия — перейти от запретов к управляемому внедрению. Организации должны предоставить сотрудникам одобренные и проверенные ИИ-решения, чтобы у людей не было необходимости искать теневые альтернативы. Нужно мониторить сетевой трафик, привилегированный доступ и активность API. И, конечно, обучать персонал — многие утечки происходят не по злому умыслу, а из-за элементарного непонимания рисков.
Если организации справятся с этой задачей, выигрыш ощутимый: полная видимость использования ИИ-инструментов и доступа к данным, снижение регуляторных рисков по GDPR, HIPAA и EU AI Act, более быстрое и безопасное внедрение ИИ по проверенным стандартам. Практика показывает, что когда людям дают удобный одобренный инструмент, процент перехода с теневых решений оказывается высоким.
Компания Keeper® предлагает свой подход к проблеме: контроль привилегированного доступа к системам, взаимодействующим с ИИ-инструментами, принудительное применение принципа минимальных привилегий для всех идентичностей — и человеческих, и машинных, — а также ведение полного журнала аудита по критической инфраструктуре. Смысл в том, что команды безопасности должны научиться управлять обоими типами идентичностей, а не пытаться загнать джинна обратно в бутылку. Потому что ИИ уже здесь, и он никуда не уйдёт — а вот конфиденциальные данные без должного контроля уйдут наверняка.

Изображение носит иллюстративный характер
Теневой ИИ — это использование сотрудниками искусственного интеллекта без формального одобрения, контроля или даже видимости со стороны ИТ-отделов и команд безопасности. Понятие похоже на более старый термин «теневое ИТ» (Shadow IT), когда работники ставят неодобренный софт. Но разница принципиальная: ИИ-системы не просто работают с данными, они их активно обрабатывают, генерируют и сохраняют. Когда менеджер вставляет в чат-бот клиентскую базу, чтобы быстрее написать отчёт, эти данные уходят на сторонний сервер, и компания теряет над ними всякий контроль.
Почему это распространяется так быстро? Всё банально. Генеративные ИИ-инструменты не требуют почти никакой настройки — открыл браузер, зарегистрировался, получил результат. Традиционный корпоративный софт проходит через месяцы согласований, а ChatGPT начинает помогать через тридцать секунд. При этом у большинства организаций до сих пор нет внятных политик использования ИИ. Сотрудники принимают решения о безопасности самостоятельно — и чаще всего они эти решения принимают плохо. Отдельные отделы интегрируют сторонние ИИ-модели и API в свои приложения вообще без какого-либо ревью со стороны безопасников.
Теневой ИИ — это проблема безопасности, а не просто вопрос корпоративного управления. Сотрудники делятся с ИИ-платформами клиентскими данными, финансовой информацией, внутренними документами. Разработчики вставляют в окно чата скрипты с зашитыми API-ключами, учётными данными баз данных и токенами доступа. Как только эта информация попадает на стороннюю платформу, организация теряет все журналы аудита. Расследовать утечку становится практически невозможно. А неконтролируемая передача данных может запросто привести к нарушениям GDPR или HIPAA — с вполне конкретными штрафами и обязательными уведомлениями.
Параллельно теневой ИИ быстро расширяет поверхность атаки. Непроверенные API и плагины могут оказаться небезопасными или откровенно вредоносными. Если сотрудник использует личный аккаунт или личное устройство для работы с ИИ, традиционный мониторинг сети его просто не увидит. Отдельная история — автономные «ИИ-агенты», которые перемещаются между несколькими платформами и создают сложные скрытые маршруты передачи данных. Для киберпреступников такие маршруты — подарок.
Есть и техническая проблема обнаружения. Большинство ИИ-платформ работают через HTTPS, и стандартные межсетевые экраны без SSL-инспекции (а у многих организаций её нет) остаются слепыми к этому трафику. Разговорные ИИ-интерфейсы ведут себя не так, как привычные приложения — они не логируются стандартными средствами, не вызывают срабатываний алертов, когда данные покидают периметр. С точки зрения систем безопасности, ничего подозрительного не происходит.
Отдельный пласт риска связан с управлением идентификацией — IAM. Сотрудники создают десятки разрозненных личных аккаунтов на различных ИИ-платформах. Эти учётные записи никем не управляются и не контролируются. Разработчики подключают ИИ-инструменты через сервисные аккаунты, порождая так называемые «нечеловеческие идентичности» (Non-Human Identities, NHIs) — автоматизированные сущности с доступом к системам, за которыми никто не следит. Каждая такая идентичность — потенциальная точка несанкционированного доступа.
Что с этим делать? Блокировать ИИ целиком — путь в никуда. Использование искусственного интеллекта уже стало нормой, и в крупных организациях какая-то степень теневого ИИ неизбежна. Разумная стратегия — перейти от запретов к управляемому внедрению. Организации должны предоставить сотрудникам одобренные и проверенные ИИ-решения, чтобы у людей не было необходимости искать теневые альтернативы. Нужно мониторить сетевой трафик, привилегированный доступ и активность API. И, конечно, обучать персонал — многие утечки происходят не по злому умыслу, а из-за элементарного непонимания рисков.
Если организации справятся с этой задачей, выигрыш ощутимый: полная видимость использования ИИ-инструментов и доступа к данным, снижение регуляторных рисков по GDPR, HIPAA и EU AI Act, более быстрое и безопасное внедрение ИИ по проверенным стандартам. Практика показывает, что когда людям дают удобный одобренный инструмент, процент перехода с теневых решений оказывается высоким.
Компания Keeper® предлагает свой подход к проблеме: контроль привилегированного доступа к системам, взаимодействующим с ИИ-инструментами, принудительное применение принципа минимальных привилегий для всех идентичностей — и человеческих, и машинных, — а также ведение полного журнала аудита по критической инфраструктуре. Смысл в том, что команды безопасности должны научиться управлять обоими типами идентичностей, а не пытаться загнать джинна обратно в бутылку. Потому что ИИ уже здесь, и он никуда не уйдёт — а вот конфиденциальные данные без должного контроля уйдут наверняка.