Ssylka

Как обеспечить безопасность данных при использовании GenAI?

Отчёт «Enterprise GenAI Data Security Report 2025», выпущенный компанией LayerX, представляет практический анализ применения инструментов искусственного интеллекта в рабочей среде и выявляет уязвимости, связанные с утечками данных и несанкционированным доступом. Документ базируется на реальной телеметрии корпоративных клиентов и предоставляет конкретные данные для обоснованного принятия решений в сфере безопасности.
Как обеспечить безопасность данных при использовании GenAI?
Изображение носит иллюстративный характер

Исследование показывает, что примерно 90% использования AI-инструментов происходит вне контроля IT-отделов. Такая «теневая» активность создаёт значительный риск утечки конфиденциальной информации и несанкционированного доступа к корпоративным ресурсам.

Статистика использования указывает, что около 15% сотрудников применяют GenAI-инструменты ежедневно, тогда как 50% обращаются к ним раз в две недели. Несмотря на явно растущий интерес, вовлечённость остаётся на достаточно случайном уровне с потенциалом для быстрого нарастания.

39% регулярных пользователей этих инструментов – программисты и разработчики, что порождает специфические риски: утечка исходного и проприетарного кода, а также интеграция уязвимого программного обеспечения в корпоративные системы.

Доступ к средствам GenAI, включая такие популярные инструменты, как ChatGPT, осуществляется преимущественно через личные аккаунты сотрудников – порядка 72% случаев, тогда как лишь около 12% доступа происходит через корпоративную систему единого входа (SSO). Остальные обращения классифицируются как использование «Shadow SaaS», оставляя значительную часть взаимодействий вне поля зрения IT.

Анализ выявил, что около 50% операций вставки информации в GenAI-инструменты включает передачу корпоративных данных, при этом пользователи в среднем выполняют данный акт почти 4 раза в день. Передаваемая информация охватывает бизнес-данные, информацию о клиентах, финансовые планы и исходный код программного обеспечения.

Существующие инструменты безопасности не справляются с защитой браузерных сессий и AI-взаимодействий, что требует перехода к решениям нового поколения, способным обнаруживать и контролировать работу с AI-приложениями непосредственно в браузере. Такие меры критически необходимы для снижения риска утечек и несанкционированного доступа.

Рекомендуется внедрить браузерные системы безопасности, обеспечивающие прозрачность и контроль доступа к AI-приложениям, а также мониторинг использования расширений, интегрирующих AI-функциональность. Дополнительно важно применять специализированные системы предотвращения утечек данных (DLP), адаптированные под работу GenAI.

Организациям предлагается ознакомиться с полным текстом отчёта и принять участие в вебинаре, где будут подробно разобраны ключевые выводы и обоснованы меры по усилению кибербезопасности в эпоху активного внедрения GenAI-технологий.


Новое на сайте

16950Физический движок в голове: как мозг разделяет твердые предметы и текучие вещества 16949Скрыты ли в нашей днк ключи к лечению ожирения и последствий инсульта? 16948Почему символ американской свободы был приговорен к уничтожению? 16947Рукотворное убежище для исчезающих амфибий 16946Какую тайну хранит жестокая жизнь и загадочная смерть сестер каменного века? 16945Скрывает ли Плутон экваториальный пояс из гигантских ледяных клинков? 16944Взгляд на зарю вселенной телескопом Джеймса Уэбба 16943От сада чудес до протеина из атмосферы 16942Кратковременный сон наяву: научное объяснение пустоты в мыслях 16941Спутники Starlink создают непреднамеренную угрозу для радиоастрономии 16940Аутентификационная чума: бэкдор Plague год оставался невидимым 16939Фиолетовый страж тайских лесов: редкий краб-принцесса явился миру 16938Хроники мангровых лесов: победители фотоконкурса 2025 года 16937Танцевали ли планеты солнечной системы идеальный вальс? 16936Ай-ай: причудливый лемур, проклятый своим пальцем