Можно ли обойти защиту DeepSeek-R1 через открытые цепочки рассуждений?

DeepSeek-R1 – мощная языковая модель с 671-миллиардным количеством параметров, использующая метод промежуточных шагов рассуждений для решения сложных задач, таких как математические примеры из набора GSM8K.
Можно ли обойти защиту DeepSeek-R1 через открытые цепочки рассуждений?
Изображение носит иллюстративный характер

Метод цепочки рассуждений подразумевает прохождение ряда логических этапов перед формированием окончательного ответа. Уникальной особенностью модели являются теги <think> и </think>, в которых прозрачно отображается внутренний процесс анализа запроса.

Появление видимой цепочки рассуждений создает угрозу промт атак, когда злоумышленники составляют специальные запросы для обхода защитных механизмов и получения недокументированной информации. Атакующая стратегия по своей сути аналогична фишинговым схемам, где методики постоянно адаптируются для обхода системных ограничений.

Использование инструмента NVIDIA Garak для red teaming показало, что специально сконструированные промты способны провоцировать раскрытие внутренних данных модели. Подобные тесты включали запросы на раскрытие цепочки рассуждений и чувствительной информации, например, API ключей, через метод payload splitting.

Классификация рисков охватывает как техники атак, так и цели. Среди методов выделяются Prompt Injection (OWASP LLM01:2025, MITRE AML.T0051) и Jailbreak (OWASP LLM01:2025, MITRE AML.T0054), а цели атаки включают кражу модели (MITRE AML.T0048.004), галлюцинацию пакетов (OWASP LLM09:2025, MITRE AML.T0062), утечку конфиденциальных данных (OWASP LLM02:2025, MITRE AML.T0057), генерацию небезопасного вывода (OWASP LLM05:2025, MITRE AML.T0050) и проявления токсичности (MITRE AML.T0048).

Отмечена опасность раскрытия чувствительной информации: даже если финальный ответ не содержит секрета, скрытая цепочка рассуждений может «раскрывать его, поскольку модель просматривает весь доступный контекст для интерпретации запроса пользователя». Такая уязвимость позволяет злоумышленникам получить доступ к внутренним данным, не предусмотренным для публичного разглашения.

Эксперименты продемонстрировали, что атаки, нацеленные на генерацию небезопасного вывода и утечку конфиденциальной информации, достигали более высокого уровня успеха, тогда как методы обхода защит от токсичности, Jailbreak и кража модели оказались менее эффективными. Видимость цепочки рассуждений, по всей вероятности, повышает вероятность успешного эксплойта.

Рекомендуется фильтровать теги <think> из ответов чат-ботов для исключения возможности утечки внутренних данных, а также регулярно применять комплексные red teaming стратегии для выявления уязвимостей в системах на базе больших языковых моделей.


Новое на сайте

19989Шесть историй, которые умещаются на ладони 19986Как 30 000 аккаунтов Facebook оказались в руках вьетнамских хакеров? 19985LofyGang вернулась: как бразильские хакеры охотятся на геймеров через поддельные читы 19984Автономная проверка защиты: как не отстать от ИИ-атак 19983Взлом Trellix: хакеры добрались до исходного кода одной из ведущих компаний по... 19982Почему почти 3000 монет в норвежском поле перевернули представление о викингах? 19981Как поддельная CAPTCHA опустошает ваш счёт и крадёт криптовалюту? 19980Слежка за каждым шагом: как ИИ превращает государство в машину тотального контроля 19979Как хакеры грабят компании через звонок в «техподдержку» 19978Почему именно Нью-Йорк стал самым уязвимым городом восточного побережья перед... 19977Как одна команда git push открывала доступ к миллионам репозиториев 19976Зачем древние народы убивали ножами и мечами: оружие как основа власти 19975Как Python-бэкдор DEEPDOOR крадёт ваши облачные пароли незаметно? 19974Послание в бутылке: математика невозможного 19973Почему ИИ-инфраструктура стала новой целью хакеров быстрее, чем ждали все?
Ссылка