Ssylka

Может ли ваш отдел безопасности отследить данные, отправленные в ChatGPT?

Широкое внедрение платформ генеративного искусственного интеллекта, таких как ChatGPT, Gemini, Copilot и Claude, для повышения эффективности создает значительные и неочевидные риски утечки данных. Конфиденциальная информация может покинуть корпоративный периметр через чат-промпты, загруженные для анализа файлы или через браузерные плагины, которые обходят стандартные средства контроля. Традиционные продукты для предотвращения потери данных (DLP) часто не способны зафиксировать подобные события, оставляя организацию уязвимой.
Может ли ваш отдел безопасности отследить данные, отправленные в ChatGPT?
Изображение носит иллюстративный характер

Решением этой проблемы является использование систем обнаружения и реагирования на сетевом уровне (NDR), например, Fidelis Network® Detection and Response. Такие платформы обеспечивают необходимую видимость и контроль над активностью генеративного ИИ. Они позволяют службам безопасности отслеживать использование этих сервисов, применять корпоративные политики и проводить аудит в рамках общей стратегии DLP. Ключевой фокус смещается с конечных точек на анализ всего пути сетевого трафика, что позволяет выявлять аномалии даже в зашифрованном потоке данных. Важным становится не то, кто создал данные, а то, когда и как они покидают организацию.

Существует три взаимодополняющих подхода к мониторингу, которые реализуются с помощью сетевых решений. Первый — это активный мониторинг на основе URL-индикаторов с оповещениями в реальном времени. Администраторы определяют адреса конечных точек ИИ-платформ, и при доступе пользователя система Fidelis NDR немедленно генерирует предупреждение. Если при этом срабатывает политика DLP, платформа записывает полный захват пакетов для последующего анализа. Это обеспечивает быструю реакцию и детальный разбор инцидентов, но требует постоянного обновления правил и может приводить к избытку оповещений.

Второй подход — пассивный мониторинг исключительно метаданных для аудита. В этом режиме оповещения подавляются, но система сохраняет всю релевантную информацию о сессиях: IP-адреса источника и назначения, протоколы, порты, данные об устройстве и временные метки. Такой метод создает подробный и доступный для поиска журнал активности без операционной нагрузки на команды SOC. Он идеально подходит для анализа тенденций и отчетности по соответствию требованиям, однако критически важные события могут быть замечены с опозданием.

Третий подход нацелен на обнаружение и предотвращение выгрузки конфиденциальных файлов. Система идентифицирует момент загрузки файла на платформу генеративного ИИ и автоматически проверяет его содержимое на наличие чувствительной информации, такой как персональные данные (PII) или защищенная медицинская информация (PHI). При обнаружении совпадения с правилом DLP сессия полностью записывается, а инцидент привязывается к конкретному устройству, обеспечивая подотчетность даже без аутентификации пользователя. Этот метод напрямую блокирует несанкционированную передачу данных.

Эффективность этих подходов максимальна при их совместном использовании. Например, организация может применять пассивный сбор метаданных в качестве базового уровня контроля для всей сети, одновременно активировав оповещения в реальном времени и инспекцию файлов для отделов, работающих с особо ценной информацией. Такая гибкая конфигурация позволяет сбалансировать безопасность и производительность, не перегружая аналитиков центра мониторинга (SOC).

Для построения комплексной программы защиты данных от угроз, связанных с ИИ, недостаточно одних технологий. Необходимо поддерживать и регулярно обновлять списки конечных точек ИИ-сервисов и соответствующие им правила мониторинга. Политики безопасности должны разрабатываться совместно с руководителями по комплаенсу и конфиденциальности. Выходные данные систем сетевого обнаружения следует интегрировать с платформами автоматизации SOC и системами управления активами для создания единого контекста.

Ключевым элементом программы является обучение сотрудников. Пользователи должны быть осведомлены о существующих политиках и понимать, что их взаимодействие с генеративным ИИ отслеживается. Регулярный анализ журналов политик безопасности позволяет адаптировать защитные меры к появлению новых ИИ-сервисов и плагинов, поддерживая актуальность системы контроля. Это превращает реактивные меры в проактивную и управляемую стратегию безопасности.


Новое на сайте