Сотрудники сливают гостайну через DeepSeek?

Исследование компании Harmonic Security, охватившее действия 14 000 сотрудников в США и Великобритании за 30 дней, выявило тревожную тенденцию. Почти 8% работников (около 1 120 человек) активно использовали генеративный ИИ китайского происхождения без ведома или одобрения служб безопасности.
Сотрудники сливают гостайну через DeepSeek?
Изображение носит иллюстративный характер

Наиболее популярными оказались инструменты DeepSeek, Kimi Moonshot, Baidu Chat, Qwen (от Alibaba) и Manus. Их привлекательность в мощности и простоте доступа, однако политики обработки, хранения и повторного использования данных остаются крайне непрозрачными.

Критичный риск — массовая утечка конфиденциальной информации. 1 059 пользователей загрузили свыше 17 мегабайт данных. Зафиксировано 535 инцидентов с чувствительными материалами. Около трети (33%) составляли исходный код и инженерная документация. Остальные 67% включали данные о слияниях и поглощениях (M&A), финансовые отчеты, персональные данные (PII), юридические контракты и записи о клиентах.

DeepSeek стал главным каналом утечек — на него пришлось 85% инцидентов. Kimi Moonshot и Qwen также показали значительную активность. Внедрение происходило стихийно, снизу, минуя корпоративные ИТ-системы.

Риски использования китайских GenAI-сервисов усугубляются их разрешительными или неясными политиками данных. Условия некоторых платформ прямо разрешают применять загруженный контент для дообучения моделей. Это создает прямую угрозу для компаний в регулируемых отраслях, владеющих проприетарным ПО или стратегическими планами.

Фактически, каждый 12-й сотрудник в выборке взаимодействует с неподконтрольными ИИ-платформами, часто не осознавая рисков хранения данных или юрисдикционной принадлежности сервисов. Информированности недостаточно — требуются активные технические меры контроля.

Harmonic Security предлагает платформу для мониторинга активности ИИ в реальном времени и принудительного применения политик безопасности. Решение позволяет блокировать доступ к приложениям по стране регистрации, запрещать загрузку определенных типов данных и обучать пользователей контекстными подсказками.

Способность контролировать использование GenAI становится стратегическим императором, не менее важным, чем производительность самих моделей. Внедрение таких инструментов позволяет компаниям использовать преимущества ИИ, избегая неоправданных рисков. Подробности на .


Новое на сайте

19164Уязвимые обучающие приложения открывают доступ к облакам Fortune 500 для криптомайнинга 19163Почему ботнет SSHStalker успешно атакует Linux уязвимостями десятилетней давности? 19162Microsoft устранила шесть уязвимостей нулевого дня и анонсировала радикальные изменения в... 19161Эскалация цифровой угрозы: как IT-специалисты КНДР используют реальные личности для... 19160Скрытые потребности клиентов и преимущество наблюдения над опросами 19159Академическое фиаско Дороти Паркер в Лос-Анджелесе 19158Китайский шпионский фреймворк DKnife захватывает роутеры с 2019 года 19157Каким образом корейские детские хоры 1950-х годов превратили геополитику в музыку и... 19156Научная революция цвета в женской моде викторианской эпохи 19155Как новый сканер Microsoft обнаруживает «спящих агентов» в открытых моделях ИИ? 19154Как новая кампания DEADVAX использует файлы VHD для скрытой доставки трояна AsyncRAT? 19153Как новые китайские киберкампании взламывают госструктуры Юго-Восточной Азии? 19152Культ священного манго и закат эпохи хунвейбинов в маоистском Китае 19151Готовы ли вы к эре коэффициента адаптивности, когда IQ и EQ больше не гарантируют успех? 19150Иранская группировка RedKitten применяет сгенерированный нейросетями код для кибершпионажа
Ссылка