Ssylka

Почему традиционные модели безопасности обречены на провал в эпоху генеративного ИИ?

Генеративный искусственный интеллект за несколько лет превратился из технологической диковинки в краеугольный камень корпоративной производительности. Сотрудники используют его для написания кода, анализа данных, составления документов и принятия решений. Однако этот рост создал парадокс для директоров по информационной безопасности (CISO) и архитекторов безопасности: чем мощнее и полезнее становятся инструменты ИИ, тем более проницаемым становится периметр безопасности предприятия. Основная угроза заключается не в неосторожности сотрудников при составлении запросов, а в том, что организации применяют устаревшую «ментальную модель» и пытаются адаптировать унаследованные средства контроля для новой поверхности рисков.
Почему традиционные модели безопасности обречены на провал в эпоху генеративного ИИ?
Изображение носит иллюстративный характер

Рынок решений для защиты данных в сфере ИИ уже переполнен, но вносит больше путаницы, чем ясности. Традиционные поставщики систем предотвращения утечек данных (DLP) и платформы нового поколения Security Service Edge (SSE) активно проводят ребрендинг своих старых продуктов, которые не приспособлены для уникальных вызовов ИИ. Большинство унаследованных архитектур, разработанных для контроля передачи файлов, электронной почты или сетевых шлюзов, принципиально неспособны анализировать и контролировать такие действия, как вставка конфиденциального кода в чат-бота или загрузка набора данных в личный ИИ-инструмент.

Такой подход приводит к тому, что организации, оценивая новые решения для безопасности ИИ через призму старых рисков, в конечном итоге приобретают «полочное ПО» (shelfware) — программное обеспечение, которое не используется. Ключевой вопрос для покупателей должен измениться. Вместо «У какого поставщика больше всего функций?» следует спрашивать: «Какой поставщик понимает, как ИИ в действительности используется на последней миле: внутри браузера, как для разрешенных, так и для несанкционированных инструментов?»

Традиционный процесс закупки средств безопасности неэффективен для ИИ. Необходим новый путь, сфокусированный на контексте в реальном времени и детальном применении политик. Первым этапом является обнаружение и обеспечение видимости, но это лишь отправная точка, а не финиш. Опора исключительно на обнаружение приводит к переоценке рисков и принятию грубых ответных мер, таких как полный запрет инструментов ИИ.

Следующий этап — мониторинг в реальном времени, который позволяет понять, как именно используются инструменты ИИ и какие данные через них проходят. Это помогает отличить безвредное составление черновика от опасной утечки исходного кода. На основе этих данных строится третий этап — принудительное применение политик. Эффективный подход лежит не в бинарном выборе «разрешить» или «заблокировать», а в «серой зоне». Сюда входят такие меры, как автоматическое редактирование конфиденциальных данных, своевременные предупреждения для пользователей и выдача условных разрешений на определенные действия. Такой метод не только защищает данные, но и обучает пользователей в процессе работы.

Наименее привлекательным, но самым важным этапом является оценка соответствия архитектуры. Покупатели часто упускают из виду сложность развертывания. На практике решения, требующие значительных изменений в инфраструктуре, таких как установка новых агентов или настройка прокси-серверов, с наибольшей вероятностью застопорятся на этапе внедрения или будут проигнорированы пользователями, которые найдут обходные пути.

Опытные руководители службы безопасности должны задавать поставщикам нетривиальные вопросы, которые ставят под сомнение традиционные архитектуры. Работает ли решение без установки агентов на конечные точки или перенаправления сетевого трафика? Может ли оно применять политики в неуправляемых средах и на личных устройствах сотрудников (BYOD), где часто возникает «теневой ИИ»? Предлагает ли оно меры контроля, выходящие за рамки простой блокировки, например, редактирование конфиденциальных строк или контекстуальные предупреждения? Насколько платформа адаптируема к новым инструментам ИИ, которые еще даже не вышли на рынок?

Убеждение в том, что безопасность достигается за счет производительности, является мифом. Требование к CISO выбирать между инновациями ИИ и защитой данных — это ложная дилемма. Запрет таких инструментов, как ChatGPT, может удовлетворить формальные требования комплаенса, но на практике он неэффективен. Это подталкивает сотрудников к использованию личных устройств, где никаких средств контроля не существует, и порождает ту самую проблему «теневого ИИ», которую должен был решить.

Устойчивый подход заключается в детальном применении политик в реальном времени, что позволяет разрешать санкционированное использование ИИ, перехватывая рискованное поведение. Таким образом, безопасность становится не противником, а катализатором производительности. Успех или провал решения часто определяют нетехнические факторы. Можно ли развернуть его за несколько часов, или для этого потребуются недели настройки конечных точек? Являются ли средства контроля прозрачными и минимально навязчивыми, или они раздражают пользователей, заставляя их искать обходные пути? Наконец, есть ли у поставщика четкий план адаптации к новым инструментам ИИ и нормативным требованиям, или продукт статичен? Правильные ответы на эти вопросы отличают действительно эффективные решения от переупакованных старых технологий.


Новое на сайте