Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM

Исследование показало, что даже минимальное добавление ложной медицинской информации (всего 0,001% от объема обучающих данных) в большие языковые модели (LLM) может серьезно подорвать их точность. Вносимая дезинформация, специально сгенерированная LLM, способна не только скомпрометировать ответы по конкретной теме, но и повлиять на общую надежность модели в медицинской области. Это происходит из-за того, что LLM обучаются на основе огромных массивов данных из интернета, где дезинформация широко распространена.
Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM
Изображение носит иллюстративный характер

Причем, отравление обучающих данных не требует доступа к самой модели. Достаточно просто разместить нужные «фейковые» данные в открытом доступе. Это может быть в виде обычных веб-страниц, которые модели сканируют и индексируют для обучения. При этом даже скрытый на веб-страницах текст может быть воспринят моделью. А это, в свою очередь, делает процесс отравления достаточно дешевым и простым.

Несмотря на то, что медицинские LLM успешно проходят стандартные тесты производительности, это не гарантирует, что они не подвержены отравлению. Более того, попытки улучшить модели после обучения с помощью тонкой настройки или других методов оказались неэффективными. И это является проблемой, ведь люди, не являющиеся специалистами в области медицины, часто будут обращаться за информацией к универсальным поисковым LLM, а не к специализированным медицинским моделям, прошедшим проверку.

В качестве решения проблемы предложен алгоритм перекрестной проверки результатов LLM на основе графа биомедицинских знаний. Этот алгоритм способен выявлять фразы, не прошедшие проверку. Но, в конечном итоге, создание стабильно надежных медицинских LLM остается сложной задачей, усугубляемой устареванием и противоречивостью информации даже в надежных базах данных, таких как PubMed.


Новое на сайте

19208Как новые поколения троянов удаленного доступа захватывают системы ради кибершпионажа и... 19207Почему мировые киберпреступники захватили рекламные сети, и как Meta вместе с властями... 19206Как фальшивый пакет StripeApi.Net в NuGet Gallery незаметно похищал финансовые API-токены... 19205Зачем неизвестная группировка UAT-10027 внедряет бэкдор Dohdoor в системы образования и... 19204Ритуальный предсвадебный плач как форма протеста в традиционном Китае 19203Невидимая угроза в оперативной памяти: масштабная атака северокорейских хакеров на... 19202Как уязвимость нулевого дня в Cisco SD-WAN позволяет хакерам незаметно захватывать... 19201Как Google разрушил глобальную шпионскую сеть UNC2814, охватившую правительства 70 стран... 19200Как простое открытие репозитория в Claude Code позволяет хакерам получить полный контроль... 19199Зачем киберсиндикат SLH платит женщинам до 1000 долларов за один телефонный звонок в... 19198Устранение слепых зон SOC: переход к доказательной сортировке угроз для защиты бизнеса 19197Скрытые бэкдоры в цепочках поставок по: атаки через вредоносные пакеты NuGet и npm 19196Как абсолютная самоотдача, отказ от эго и физиологическое переосмысление тревоги помогают... 19195Отказ от стратегии гладиаторов как главный драйвер экспоненциального роста корпораций 19194Цена ручного управления: почему отказ от автоматизации данных разрушает национальную...
Ссылка