Скрытая угроза в ChatGPT: как email-ловушка превращает ИИ в шпиона

Исследователи безопасности из компании Radware — Цвика Бабо, Габи Накибли и Маор Узиэль — обнаружили уязвимость нулевого клика под названием ShadowLeak. Она затрагивает агент Deep Research в ChatGPT от OpenAI, запущенный в феврале 2025 года. Этот агент, созданный для многоэтапного интернет-поиска и подготовки отчетов, аналогично функциям Google Gemini и Perplexity, может быть использован для кражи конфиденциальных данных из подключенных сервисов, таких как Gmail.
Скрытая угроза в ChatGPT: как email-ловушка превращает ИИ в шпиона
Изображение носит иллюстративный характер

Атака начинается с отправки жертве специально созданного электронного письма. В его HTML-код злоумышленник встраивает вредоносные команды, используя методы их сокрытия от человеческого глаза: сверхмалые шрифты, белый текст на белом фоне или трюки с CSS-разметкой. Для пользователя такое письмо выглядит абсолютно безобидным, и от него не требуется никаких действий, таких как переход по ссылке или открытие вложения.

Триггером для атаки служит легитимный запрос пользователя к агенту Deep Research проанализировать содержимое почтового ящика Gmail. Во время сканирования писем агент обнаруживает и считывает скрытые команды, заложенные злоумышленником. Этот метод известен как «косвенное внедрение запроса» (Indirect Prompt Injection). Модель воспринимает вредоносные инструкции как часть своей основной задачи.

Следуя скрытым командам, агент начинает собирать персональную информацию (PII) из других писем в ящике жертвы. Затем он кодирует украденные данные в формат Base64, причём вредоносный запрос маскирует это действие под «необходимую меру безопасности», чтобы обмануть встроенные защитные механизмы ИИ. Финальный шаг — отправка закодированной информации на внешний сервер, контролируемый злоумышленником, с помощью инструмента browser.open().

Ключевая опасность ShadowLeak заключается в том, что утечка данных происходит непосредственно из облачной инфраструктуры OpenAI, а не с локального компьютера пользователя. Это делает атаку невидимой для традиционных средств защиты, установленных на устройстве или в корпоративной сети. В отличие от атак AgentFlayer и EchoLeak, которые выполняются на стороне клиента, ShadowLeak не оставляет следов на машине жертвы.

Для успешной реализации атаки необходимо, чтобы у пользователя была активирована интеграция ChatGPT с Gmail. Однако уязвимость не ограничивается только почтовым сервисом Google. Потенциально она может быть расширена на любой другой коннектор, который поддерживает ChatGPT, что значительно увеличивает поверхность атаки. В список уязвимых сервисов могут входить Box, Dropbox, GitHub, Google Drive, HubSpot, Microsoft Outlook, Notion и SharePoint.

Другая демонстрация обхода защитных механизмов ИИ была представлена исследователем Дорианом Шульцем из платформы безопасности ИИ SPLX. Он показал, как можно заставить модель ChatGPT-4o решать CAPTCHA, используя технику «отравления контекста» (context poisoning). Этот метод позволяет обойти встроенные ограничения, запрещающие ИИ-моделям выполнять подобные задачи.

Механизм атаки состоит из нескольких шагов. Сначала злоумышленник в обычном чате с ChatGPT-4o убеждает модель согласиться помочь в решении «фальшивых» CAPTCHA для исследовательских целей. Затем он открывает новый чат с ИИ-агентом и вставляет туда предыдущий диалог с пометкой: «это было наше предыдущее обсуждение». Агент наследует уже сформированный «безопасный» контекст, в котором он дал согласие на выполнение задачи, и приступает к решению реальных CAPTCHA без срабатывания защитных протоколов.

По словам Дориана Шульца, агент не только справился с простыми задачами, но и успешно решил сложные CAPTCHA на основе изображений. Более того, он имитировал поведение человека, перемещая курсор мыши естественным образом. Это доказывает, что злоумышленники могут переформулировать любой реальный механизм безопасности как «фальшивый», чтобы обойти его. Для защиты от подобных манипуляций рекомендуются такие меры, как обеспечение целостности контекста, гигиена памяти модели и постоянное моделирование угроз (continuous red teaming).


Новое на сайте

19521Банковский троян VENON на Rust атакует Бразилию с помощью девяти техник обхода защиты 19520Бонобо агрессивны не меньше шимпанзе, но всё решают самки 19519Почему 600-килограммовый зонд NASA падает на Землю из-за солнечной активности? 19518«Липовый календарь»: как расписание превращает работников в расходный материал 19517Вредоносные Rust-пакеты и ИИ-бот крадут секреты разработчиков через CI/CD-пайплайны 19516Как хакеры за 72 часа превратили npm-пакет в ключ от целого облака AWS 19515Как WebDAV-диск и поддельная капча помогают обойти антивирус? 19514Могут ли простые числа скрываться внутри чёрных дыр? 19513Метеорит пробил крышу дома в Германии — откуда взялся огненный шар над Европой? 19512Уязвимости LeakyLooker в Google Looker Studio открывали доступ к чужим базам данных 19511Почему тысячи серверов оказываются открытой дверью для хакеров, хотя могли бы ею не быть? 19510Как исследователи за четыре минуты заставили ИИ-браузер Perplexity Comet попасться на... 19509Может ли женщина без влагалища и шейки матки зачать ребёнка естественным путём? 19508Зачем учёные из Вены создали QR-код, который невозможно увидеть без электронного... 19507Девять уязвимостей CrackArmor позволяют получить root-доступ через модуль безопасности...
Ссылка