Ssylka

Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM

Исследование показало, что даже минимальное добавление ложной медицинской информации (всего 0,001% от объема обучающих данных) в большие языковые модели (LLM) может серьезно подорвать их точность. Вносимая дезинформация, специально сгенерированная LLM, способна не только скомпрометировать ответы по конкретной теме, но и повлиять на общую надежность модели в медицинской области. Это происходит из-за того, что LLM обучаются на основе огромных массивов данных из интернета, где дезинформация широко распространена.
Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM
Изображение носит иллюстративный характер

Причем, отравление обучающих данных не требует доступа к самой модели. Достаточно просто разместить нужные «фейковые» данные в открытом доступе. Это может быть в виде обычных веб-страниц, которые модели сканируют и индексируют для обучения. При этом даже скрытый на веб-страницах текст может быть воспринят моделью. А это, в свою очередь, делает процесс отравления достаточно дешевым и простым.

Несмотря на то, что медицинские LLM успешно проходят стандартные тесты производительности, это не гарантирует, что они не подвержены отравлению. Более того, попытки улучшить модели после обучения с помощью тонкой настройки или других методов оказались неэффективными. И это является проблемой, ведь люди, не являющиеся специалистами в области медицины, часто будут обращаться за информацией к универсальным поисковым LLM, а не к специализированным медицинским моделям, прошедшим проверку.

В качестве решения проблемы предложен алгоритм перекрестной проверки результатов LLM на основе графа биомедицинских знаний. Этот алгоритм способен выявлять фразы, не прошедшие проверку. Но, в конечном итоге, создание стабильно надежных медицинских LLM остается сложной задачей, усугубляемой устареванием и противоречивостью информации даже в надежных базах данных, таких как PubMed.


Новое на сайте

19069Обнаружение челюсти в Эфиопии доказывает сосуществование трех родов гоминидов и расширяет... 19068Память как инструмент правосудия и примирения в постдиктаторском Чили 19067Насколько опасны новые критические уязвимости в Zoom и GitLab? 19066Как умные MSSP используют ИИ для увеличения маржи с половиной штата в реалиях 2026 года? 19065Может ли общение с чат-ботом GPT-4o привести к психозу и вере в цифровое воскрешение? 19064Почему традиционные методы управления уязвимостями уступают место платформам оценки... 19063Почему критические уязвимости в Chainlit и Microsoft MCP открывают хакерам полный доступ... 19062Возможно ли написать 88 000 строк вредоносного кода VoidLink в одиночку за несколько дней? 19061Чем грозит разработчикам критическая уязвимость CVE-2026-1245 в библиотеке binary-parser? 19060Новая фишинговая кампания против пользователей LastPass нацелена на кражу мастер-паролей 19059Способны ли пять лишних минут сна и две минуты спорта продлить жизнь на целый год? 19058Зачем мозгу нужны «неправильные» нейроны и как модель Neuroblox обнаружила скрытые... 19057Почему ложные представления об успехе заставляют нас сдаваться за шаг до настоящего... 19056Рекордный за 23 года солнечный радиационный шторм класса S4 обрушился на землю 19055Что расскажет о юной вселенной древняя сверхновая эос?