Италия блокирует китайского AI гиганта DeepSeek из-за опасений о конфиденциальности данных

Итальянский надзорный орган по защите данных, Garante, ввел запрет на использование китайской компании DeepSeek, занимающейся разработкой искусственного интеллекта, в связи с серьезными опасениями относительно обработки персональных данных и этических аспектов. Этот шаг последовал за аналогичным временным запретом на ChatGPT от OpenAI в 2023 году, подчеркивая пристальное внимание Италии к регулированию в сфере ИИ.
Италия блокирует китайского AI гиганта DeepSeek из-за опасений о конфиденциальности данных
Изображение носит иллюстративный характер

Поводом для блокировки DeepSeek, деятельность которой ведут компании Hangzhou DeepSeek Artificial Intelligence и Beijing DeepSeek Artificial Intelligence, стало отсутствие ясной информации о том, как обрабатываются персональные данные пользователей. Компания DeepSeek, похоже, считает, что европейское законодательство к ней не применимо, и проигнорировала запросы Garante, касающиеся методов сбора, хранения и использования данных, в том числе обеспокоенность по поводу расположения серверов в Китае. Запрет вступил в силу немедленно 30 января 2025 года, одновременно начато расследование деятельности компании.

Стоит отметить, что в 2023 году OpenAI временно столкнулась с запретом на использование ChatGPT. Запрет был снят после того, как компания учла требования к защите персональных данных и выплатила штраф в размере 15 миллионов евро. Это демонстрирует последовательную политику Италии в отношении защиты личной информации пользователей.

DeepSeek стремительно набирает популярность, мобильные приложения компании занимают первые места в рейтингах скачиваний. Однако компания также столкнулась с масштабными вредоносными атаками, которые, по заявлениям DeepSeek, были устранены 31 января. Законодатели и регуляторы выражают озабоченность по поводу политики конфиденциальности DeepSeek, возможной цензуры и пропаганды, а также рисками для национальной безопасности, связанными с работой компании.

Уязвимости языковых моделей DeepSeek (LLM) вызывают особую тревогу. Исследования показали, что модели подвержены так называемым «побегам из песочницы» с использованием техник, таких как Crescendo, Bad Likert Judge, Deceptive Delight, Do Anything Now (DAN) и EvilBOT. Эти методы позволяют обойти ограничения модели и генерировать вредоносный контент, например, инструкции по изготовлению коктейлей Молотова, код для SQL-инъекций и перемещения по сети. Модель DeepSeek-R1, разработанная для логического мышления, также оказалась уязвимой к инъекциям в подсказки, а использование Chain-of-Thought (CoT) может привести к утечке информации.

Особое внимание привлек тот факт, что модели DeepSeek демонстрируют признаки использования данных, ранее принадлежавших OpenAI. Этот факт поднимает этические и юридические вопросы об источниках данных и оригинальности моделей. Хотя OpenAI в значительной мере устранила эту проблему, подобные случаи требуют пристального внимания.

Уязвимости в безопасности ИИ не являются исключительной проблемой DeepSeek. Исследования Palo Alto Networks Unit 42, HiddenLayer, CERT Coordination Center (CERT/CC) и Apex продемонстрировали аналогичные уязвимости в других системах искусственного интеллекта. Например, модель Qwen 2.5-VL от Alibaba и Copilot от GitHub также подвержены «побегам из песочницы». В случае с Copilot, использование утверждения «конечно» или подобного может обойти ограничения безопасности и привести к генерации неэтичного и опасного кода. Кроме того, конфигурация прокси может быть использована для обхода ограничений и даже изменения системных подсказок Copilot. Исследователь из Apex, Орен Сабан, обнаружил эти критические уязвимости.

Запрет DeepSeek в Италии свидетельствует о серьезном подходе к регулированию и контролю ИИ. Разработчики искусственного интеллекта должны осознавать свою ответственность за обеспечение безопасности и защиту данных пользователей. Эти случаи показывают, что «безобидные» модели ИИ могут быть использованы в злонамеренных целях, что требует постоянного совершенствования систем защиты и этических норм.


Новое на сайте

19521Банковский троян VENON на Rust атакует Бразилию с помощью девяти техник обхода защиты 19520Бонобо агрессивны не меньше шимпанзе, но всё решают самки 19519Почему 600-килограммовый зонд NASA падает на Землю из-за солнечной активности? 19518«Липовый календарь»: как расписание превращает работников в расходный материал 19517Вредоносные Rust-пакеты и ИИ-бот крадут секреты разработчиков через CI/CD-пайплайны 19516Как хакеры за 72 часа превратили npm-пакет в ключ от целого облака AWS 19515Как WebDAV-диск и поддельная капча помогают обойти антивирус? 19514Могут ли простые числа скрываться внутри чёрных дыр? 19513Метеорит пробил крышу дома в Германии — откуда взялся огненный шар над Европой? 19512Уязвимости LeakyLooker в Google Looker Studio открывали доступ к чужим базам данных 19511Почему тысячи серверов оказываются открытой дверью для хакеров, хотя могли бы ею не быть? 19510Как исследователи за четыре минуты заставили ИИ-браузер Perplexity Comet попасться на... 19509Может ли женщина без влагалища и шейки матки зачать ребёнка естественным путём? 19508Зачем учёные из Вены создали QR-код, который невозможно увидеть без электронного... 19507Девять уязвимостей CrackArmor позволяют получить root-доступ через модуль безопасности...
Ссылка