Как обеспечить безопасность данных при использовании GenAI?

Отчёт «Enterprise GenAI Data Security Report 2025», выпущенный компанией LayerX, представляет практический анализ применения инструментов искусственного интеллекта в рабочей среде и выявляет уязвимости, связанные с утечками данных и несанкционированным доступом. Документ базируется на реальной телеметрии корпоративных клиентов и предоставляет конкретные данные для обоснованного принятия решений в сфере безопасности.
Как обеспечить безопасность данных при использовании GenAI?
Изображение носит иллюстративный характер

Исследование показывает, что примерно 90% использования AI-инструментов происходит вне контроля IT-отделов. Такая «теневая» активность создаёт значительный риск утечки конфиденциальной информации и несанкционированного доступа к корпоративным ресурсам.

Статистика использования указывает, что около 15% сотрудников применяют GenAI-инструменты ежедневно, тогда как 50% обращаются к ним раз в две недели. Несмотря на явно растущий интерес, вовлечённость остаётся на достаточно случайном уровне с потенциалом для быстрого нарастания.

39% регулярных пользователей этих инструментов – программисты и разработчики, что порождает специфические риски: утечка исходного и проприетарного кода, а также интеграция уязвимого программного обеспечения в корпоративные системы.

Доступ к средствам GenAI, включая такие популярные инструменты, как ChatGPT, осуществляется преимущественно через личные аккаунты сотрудников – порядка 72% случаев, тогда как лишь около 12% доступа происходит через корпоративную систему единого входа (SSO). Остальные обращения классифицируются как использование «Shadow SaaS», оставляя значительную часть взаимодействий вне поля зрения IT.

Анализ выявил, что около 50% операций вставки информации в GenAI-инструменты включает передачу корпоративных данных, при этом пользователи в среднем выполняют данный акт почти 4 раза в день. Передаваемая информация охватывает бизнес-данные, информацию о клиентах, финансовые планы и исходный код программного обеспечения.

Существующие инструменты безопасности не справляются с защитой браузерных сессий и AI-взаимодействий, что требует перехода к решениям нового поколения, способным обнаруживать и контролировать работу с AI-приложениями непосредственно в браузере. Такие меры критически необходимы для снижения риска утечек и несанкционированного доступа.

Рекомендуется внедрить браузерные системы безопасности, обеспечивающие прозрачность и контроль доступа к AI-приложениям, а также мониторинг использования расширений, интегрирующих AI-функциональность. Дополнительно важно применять специализированные системы предотвращения утечек данных (DLP), адаптированные под работу GenAI.

Организациям предлагается ознакомиться с полным текстом отчёта и принять участие в вебинаре, где будут подробно разобраны ключевые выводы и обоснованы меры по усилению кибербезопасности в эпоху активного внедрения GenAI-технологий.


Новое на сайте

19817В Луксоре нашли стелу с римским императором в образе фараона 19816Экипаж Artemis II о моменте, когда земля исчезла за луной 19815Почему луна выглядит по-разному в разных точках земли? 19814Adobe экстренно закрыла опасную дыру в Acrobat Reader, которую хакеры использовали с... 19813Метеорный поток, рождённый из умирающего астероида 19812Когда робот пишет за тебя прощальную смс 19811Что общего у лунной миссии, толстого попугая, загадочной плащаницы и лекарства от диабета? 19810Какие снимки Artemis II уже стали иконами лунной программы? 19809Кто на самом деле хочет сладкого — вы или ваши бактерии? 19808Как рекламные данные 500 миллионов телефонов оказались в руках спецслужб? 19807Экипаж Artemis II вернулся на землю после десяти дней в космосе 19806Зелёная и коричневая луна: почему геологи Artemis II уже не могут усидеть на месте 19805Эксперты уверены в теплозащитном щите Artemis II, несмотря на проблемы предшественника 19804Выжить внутри торнадо: каково это — когда тебя засасывает в воронку 19803Аляскинские косатки-охотники на млекопитающих замечены у берегов Сиэтла
Ссылка