Ssylka

Сотрудники сливают гостайну через DeepSeek?

Исследование компании Harmonic Security, охватившее действия 14 000 сотрудников в США и Великобритании за 30 дней, выявило тревожную тенденцию. Почти 8% работников (около 1 120 человек) активно использовали генеративный ИИ китайского происхождения без ведома или одобрения служб безопасности.
Сотрудники сливают гостайну через DeepSeek?
Изображение носит иллюстративный характер

Наиболее популярными оказались инструменты DeepSeek, Kimi Moonshot, Baidu Chat, Qwen (от Alibaba) и Manus. Их привлекательность в мощности и простоте доступа, однако политики обработки, хранения и повторного использования данных остаются крайне непрозрачными.

Критичный риск — массовая утечка конфиденциальной информации. 1 059 пользователей загрузили свыше 17 мегабайт данных. Зафиксировано 535 инцидентов с чувствительными материалами. Около трети (33%) составляли исходный код и инженерная документация. Остальные 67% включали данные о слияниях и поглощениях (M&A), финансовые отчеты, персональные данные (PII), юридические контракты и записи о клиентах.

DeepSeek стал главным каналом утечек — на него пришлось 85% инцидентов. Kimi Moonshot и Qwen также показали значительную активность. Внедрение происходило стихийно, снизу, минуя корпоративные ИТ-системы.

Риски использования китайских GenAI-сервисов усугубляются их разрешительными или неясными политиками данных. Условия некоторых платформ прямо разрешают применять загруженный контент для дообучения моделей. Это создает прямую угрозу для компаний в регулируемых отраслях, владеющих проприетарным ПО или стратегическими планами.

Фактически, каждый 12-й сотрудник в выборке взаимодействует с неподконтрольными ИИ-платформами, часто не осознавая рисков хранения данных или юрисдикционной принадлежности сервисов. Информированности недостаточно — требуются активные технические меры контроля.

Harmonic Security предлагает платформу для мониторинга активности ИИ в реальном времени и принудительного применения политик безопасности. Решение позволяет блокировать доступ к приложениям по стране регистрации, запрещать загрузку определенных типов данных и обучать пользователей контекстными подсказками.

Способность контролировать использование GenAI становится стратегическим императором, не менее важным, чем производительность самих моделей. Внедрение таких инструментов позволяет компаниям использовать преимущества ИИ, избегая неоправданных рисков. Подробности на .


Новое на сайте

18791Почему на склоне холма в Линкольншире был зарыт уникальный клад англосаксонского золота? 18790Почему «снежная каша» в недрах титана может оказаться лучшим местом для жизни, чем... 18789Почему истинное понимание сложных когнитивных функций мозга требует выхода науки за... 18788Шерстяная одежда жертв Везувия оживила споры о дате гибели Помпей 18787Способна ли контекстная киберразведка превратить работу SOC из реагирования на инциденты... 18786Тысячи пользователей Firefox стали жертвами скрытой вредоносной кампании GhostPoster 18785Древние пчелы использовали кости мертвых грызунов для создания многоуровневых гнезд 18784Как устроен обнаруженный учеными навигационный «тумблер» в мозгу и поможет ли он в... 18783Что скрывали под водой руины солнечного храма фараона ниусера и обнаруженный там... 18782Что рассказала астрономам самая далекая сверхновая GRB 250314A? 18781Как злоумышленники захватывают облака AWS для майнинга всего за 10 минут? 18780Космическая бабочка региона Idaeus Fossae как доказательство водного прошлого Марса 18779Феноменальный взлет стартапа Mercor до оценки в 10 миллиардов долларов за счет... 18778Внедрение защиты данных и конфиденциальности непосредственно в процесс написания... 18777Критический обход аутентификации SAML SSO в устройствах Fortinet FortiGate под активной...