Ssylka

Как обеспечить безопасность данных при использовании GenAI?

Отчёт «Enterprise GenAI Data Security Report 2025», выпущенный компанией LayerX, представляет практический анализ применения инструментов искусственного интеллекта в рабочей среде и выявляет уязвимости, связанные с утечками данных и несанкционированным доступом. Документ базируется на реальной телеметрии корпоративных клиентов и предоставляет конкретные данные для обоснованного принятия решений в сфере безопасности.
Как обеспечить безопасность данных при использовании GenAI?
Изображение носит иллюстративный характер

Исследование показывает, что примерно 90% использования AI-инструментов происходит вне контроля IT-отделов. Такая «теневая» активность создаёт значительный риск утечки конфиденциальной информации и несанкционированного доступа к корпоративным ресурсам.

Статистика использования указывает, что около 15% сотрудников применяют GenAI-инструменты ежедневно, тогда как 50% обращаются к ним раз в две недели. Несмотря на явно растущий интерес, вовлечённость остаётся на достаточно случайном уровне с потенциалом для быстрого нарастания.

39% регулярных пользователей этих инструментов – программисты и разработчики, что порождает специфические риски: утечка исходного и проприетарного кода, а также интеграция уязвимого программного обеспечения в корпоративные системы.

Доступ к средствам GenAI, включая такие популярные инструменты, как ChatGPT, осуществляется преимущественно через личные аккаунты сотрудников – порядка 72% случаев, тогда как лишь около 12% доступа происходит через корпоративную систему единого входа (SSO). Остальные обращения классифицируются как использование «Shadow SaaS», оставляя значительную часть взаимодействий вне поля зрения IT.

Анализ выявил, что около 50% операций вставки информации в GenAI-инструменты включает передачу корпоративных данных, при этом пользователи в среднем выполняют данный акт почти 4 раза в день. Передаваемая информация охватывает бизнес-данные, информацию о клиентах, финансовые планы и исходный код программного обеспечения.

Существующие инструменты безопасности не справляются с защитой браузерных сессий и AI-взаимодействий, что требует перехода к решениям нового поколения, способным обнаруживать и контролировать работу с AI-приложениями непосредственно в браузере. Такие меры критически необходимы для снижения риска утечек и несанкционированного доступа.

Рекомендуется внедрить браузерные системы безопасности, обеспечивающие прозрачность и контроль доступа к AI-приложениям, а также мониторинг использования расширений, интегрирующих AI-функциональность. Дополнительно важно применять специализированные системы предотвращения утечек данных (DLP), адаптированные под работу GenAI.

Организациям предлагается ознакомиться с полным текстом отчёта и принять участие в вебинаре, где будут подробно разобраны ключевые выводы и обоснованы меры по усилению кибербезопасности в эпоху активного внедрения GenAI-технологий.


Новое на сайте