NullifAI ломает PyTorch модели на Hugging Face

Два вредоносных ML-модуля были найдены на платформе Hugging Face и описаны в отчёте под названием "Malicious ML Models on Hugging Face Leverage Broken Pickle Format to Evade Detection". Специалисты обнаружили, что оба проекта, glockr1/ballr7 и who-r-u0000/0000000000000000000000000000000000000, используют «битые» Pickle-файлы в формате PyTorch для обхода защитных механизмов.
NullifAI ломает PyTorch модели на Hugging Face
Изображение носит иллюстративный характер

Исследованием занимался специалист по кибербезопасности Карло Занки (ReversingLabs), который представил свои выводы в отчёте для The Hacker News. Вредоносная часть находилась в начале PyTorch-архива, скомпрессированного не через стандартный ZIP, а с помощью 7z.

Злонамеренный участок кода включал обратную платформо-зависимую оболочку, подключающуюся к заранее прописанному IP-адресу. Сама атака оценивается как демонстрационная, поскольку специалисты сходятся во мнении, что проект носит характер proof-of-concept, а не массового компрометирования цепочки поставок.

Техника получила название "nullifAI" и замышлялась как способ обойти инструменты защиты, в частности Picklescan. Авторы зловредных репозиториев стремились показать, что достаточно изменить схему сжатия и расположение нежелательного кода, чтобы пройти мимо стандартной проверки.

Формат Pickle издавна считается рискованным, поскольку при загрузке способен исполнять произвольный код. Эти два PyTorch-модуля хранятся в виде сжатых Pickle-файлов, где вместо полных данных по модели первой же строкой запускается вредоносная нагрузка, а затем процесс разрушается, провоцируя ошибку десериализации.

«В извлечённых из упомянутых PyTorch-архивов Pickle-файлах обнаружился вредоносный фрагмент Python-кода, расположенный в начале файла», — отметил Карло Занки. «Любопытно, что объектная сериализация, для которой обычно и применяется Pickle-файл, прерывается практически сразу после срабатывания вредоносной нагрузки, из-за чего дальнейшая декомпиляция объекта терпит неудачу».

«Причина заключается в поочерёдном выполнении опкодов Pickle. Как только в начале потока Pickle встречается вредоносный код, он успевает выполниться прежде, чем десериализация будет прервана, что не позволяет инструментам Hugging Face вовремя определить вредоносную природу модели», — добавил исследователь. После выявления этой схемы Picklescan, используемый сервисом Hugging Face, был обновлён, чтобы учитывать «битые» Pickle-файлы и сжатие через 7z.


Новое на сайте

19790Кибершпионы UAT-10362 охотятся на тайваньские нко с помощью малвари LucidRook 19789Телескоп Джеймса Уэбба обнаружил галактику-«ската» в скоплении MACS J1149 19788Комета MAPS сгорела в солнечной короне и вылетела облаком обломков 19787Кто стоит за кибератаками на журналистов ближнего Востока и зачем Индии понадобилась... 19786Теневой ИИ в компаниях: угроза, которую не видят безопасники 19785Почему NASA спокойно относится к проблеме с теплозащитным экраном Artemis II? 19784Шифрование видео, которое не сломает даже квантовый компьютер 19783Западу США грозит аномально опасный сезон пожаров 19782Белок, который не должен убивать: как одна гипотеза перевернула биологию 19781Серебряная монета XVI века указала на затерянную испанскую колонию у магелланова пролива 19780Что за загадочные клетки появляются в организме женщины только во время беременности? 19779Кератин как тормоз воспаления: неожиданная роль знакомого белка 19778Ботнет Chaos перенацелился на облака и обзавёлся SOCKS-прокси 19777Когда комета PanSTARRS станет видна невооружённым глазом? 19776Почему списки «качеств лидера» не работают и что делают настоящие руководители
Ссылка