На основе анализа реальной телеметрии браузеров в корпоративной среде, компания LayerX, специализирующаяся на безопасности ИИ и браузеров, в своем отчете "Enterprise AI and SaaS Data Security Report" утверждает, что искусственный интеллект перестал быть «новой» технологией и уже является неконтролируемым каналом №1 для вывода корпоративных данных. Этот риск превосходит традиционные угрозы, такие как теневые SaaS-решения и нерегулируемый обмен файлами.

За два года инструменты искусственного интеллекта достигли уровня проникновения в рабочие процессы, на который у электронной почты и онлайн-совещаний ушли десятилетия. Почти каждый второй сотрудник (45%) в корпорациях использует генеративный ИИ. Только на долю ChatGPT приходится 43% пользователей. Активность, связанная с ИИ, составляет 11% от всей деятельности в корпоративных приложениях, конкурируя с файлообменниками и офисными пакетами. При этом 67% использования ИИ происходит через неуправляемые личные учетные записи, что создает колоссальный пробел в управлении безопасностью.
Основным вектором утечки данных является не загрузка файлов, а простое копирование и вставка текста. 77% сотрудников вставляют данные в инструменты генеративного ИИ, такие как ChatGPT, Claude и Copilot. 82% этих действий совершаются с использованием личных аккаунтов. В среднем один сотрудник выполняет 14 операций вставки в день через персональные учетные записи, и как минимум 3 из них содержат конфиденциальную корпоративную информацию.
Загрузка файлов представляет собой вторичную, но все же значительную угрозу. 40% файлов, загружаемых в генеративные ИИ-системы, содержат конфиденциальные данные, в частности персональную информацию (PII) или данные платежных карт (PCI). Почти четыре из десяти (40%) таких загрузок с конфиденциальными данными производятся через личные учетные записи сотрудников.
Предположение руководителей по безопасности о том, что корпоративные учетные записи гарантируют безопасный доступ, является ошибочным. Сотрудники массово обходят системы единого входа (SSO), что делает корпоративные аккаунты функционально идентичными личным с точки зрения видимости для систем безопасности. 71% входов в CRM-системы, например Salesforce, и 83% входов в ERP-системы не являются федеративными (не используют SSO). Часто для регистрации в корпоративных сервисах используются личные почтовые ящики, такие как Gmail.
Помимо ИИ, серьезным слепым пятном для безопасности являются мессенджеры. 87% использования корпоративных чатов происходит через неуправляемые личные аккаунты. 62% пользователей вставляют в эти чаты персональные данные (PII) или платежную информацию (PCI). Сочетание «теневого ИИ» и «теневого чата» создает огромную неконтролируемую среду, где утечка данных происходит постоянно.
Для адаптации к новой реальности требуется изменение стратегии безопасности. Управление ИИ должно стать такой же базовой категорией, как безопасность электронной почты или файлообменников. Необходимо отслеживать не только загрузку файлов, но и вводимые запросы (промпты), а также операции копирования и вставки.
Политики предотвращения утечек данных (DLP) должны эволюционировать от файлоцентричного подхода к акценту на действиях пользователя. Современные DLP обязаны контролировать «безфайловые» методы вывода данных, такие как копирование-вставка, общение в чатах и внедрение запросов.
Единственный способ восстановить контроль — ограничить использование личных аккаунтов и нефедеративных входов, либо блокируя их, либо применяя контекстно-зависимые политики к данным. Наиболее строгий контроль следует сосредоточить на категориях с самым высоким риском: искусственный интеллект, чаты и облачные хранилища, поскольку они сочетают массовое использование сотрудниками и высокую чувствительность данных.
Текущая ситуация представляет собой «коллапс управления»: инструменты, которыми сотрудники пользуются чаще всего, контролируются меньше всего. Новый периметр безопасности переместился с корпоративных серверов в браузер, где личная и рабочая деятельность сливаются. Если руководители по безопасности не адаптируют свои подходы, именно искусственный интеллект будет определять будущее утечек корпоративных данных.

Изображение носит иллюстративный характер
За два года инструменты искусственного интеллекта достигли уровня проникновения в рабочие процессы, на который у электронной почты и онлайн-совещаний ушли десятилетия. Почти каждый второй сотрудник (45%) в корпорациях использует генеративный ИИ. Только на долю ChatGPT приходится 43% пользователей. Активность, связанная с ИИ, составляет 11% от всей деятельности в корпоративных приложениях, конкурируя с файлообменниками и офисными пакетами. При этом 67% использования ИИ происходит через неуправляемые личные учетные записи, что создает колоссальный пробел в управлении безопасностью.
Основным вектором утечки данных является не загрузка файлов, а простое копирование и вставка текста. 77% сотрудников вставляют данные в инструменты генеративного ИИ, такие как ChatGPT, Claude и Copilot. 82% этих действий совершаются с использованием личных аккаунтов. В среднем один сотрудник выполняет 14 операций вставки в день через персональные учетные записи, и как минимум 3 из них содержат конфиденциальную корпоративную информацию.
Загрузка файлов представляет собой вторичную, но все же значительную угрозу. 40% файлов, загружаемых в генеративные ИИ-системы, содержат конфиденциальные данные, в частности персональную информацию (PII) или данные платежных карт (PCI). Почти четыре из десяти (40%) таких загрузок с конфиденциальными данными производятся через личные учетные записи сотрудников.
Предположение руководителей по безопасности о том, что корпоративные учетные записи гарантируют безопасный доступ, является ошибочным. Сотрудники массово обходят системы единого входа (SSO), что делает корпоративные аккаунты функционально идентичными личным с точки зрения видимости для систем безопасности. 71% входов в CRM-системы, например Salesforce, и 83% входов в ERP-системы не являются федеративными (не используют SSO). Часто для регистрации в корпоративных сервисах используются личные почтовые ящики, такие как Gmail.
Помимо ИИ, серьезным слепым пятном для безопасности являются мессенджеры. 87% использования корпоративных чатов происходит через неуправляемые личные аккаунты. 62% пользователей вставляют в эти чаты персональные данные (PII) или платежную информацию (PCI). Сочетание «теневого ИИ» и «теневого чата» создает огромную неконтролируемую среду, где утечка данных происходит постоянно.
Для адаптации к новой реальности требуется изменение стратегии безопасности. Управление ИИ должно стать такой же базовой категорией, как безопасность электронной почты или файлообменников. Необходимо отслеживать не только загрузку файлов, но и вводимые запросы (промпты), а также операции копирования и вставки.
Политики предотвращения утечек данных (DLP) должны эволюционировать от файлоцентричного подхода к акценту на действиях пользователя. Современные DLP обязаны контролировать «безфайловые» методы вывода данных, такие как копирование-вставка, общение в чатах и внедрение запросов.
Единственный способ восстановить контроль — ограничить использование личных аккаунтов и нефедеративных входов, либо блокируя их, либо применяя контекстно-зависимые политики к данным. Наиболее строгий контроль следует сосредоточить на категориях с самым высоким риском: искусственный интеллект, чаты и облачные хранилища, поскольку они сочетают массовое использование сотрудниками и высокую чувствительность данных.
Текущая ситуация представляет собой «коллапс управления»: инструменты, которыми сотрудники пользуются чаще всего, контролируются меньше всего. Новый периметр безопасности переместился с корпоративных серверов в браузер, где личная и рабочая деятельность сливаются. Если руководители по безопасности не адаптируют свои подходы, именно искусственный интеллект будет определять будущее утечек корпоративных данных.