Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM

Исследование показало, что даже минимальное добавление ложной медицинской информации (всего 0,001% от объема обучающих данных) в большие языковые модели (LLM) может серьезно подорвать их точность. Вносимая дезинформация, специально сгенерированная LLM, способна не только скомпрометировать ответы по конкретной теме, но и повлиять на общую надежность модели в медицинской области. Это происходит из-за того, что LLM обучаются на основе огромных массивов данных из интернета, где дезинформация широко распространена.
Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM
Изображение носит иллюстративный характер

Причем, отравление обучающих данных не требует доступа к самой модели. Достаточно просто разместить нужные «фейковые» данные в открытом доступе. Это может быть в виде обычных веб-страниц, которые модели сканируют и индексируют для обучения. При этом даже скрытый на веб-страницах текст может быть воспринят моделью. А это, в свою очередь, делает процесс отравления достаточно дешевым и простым.

Несмотря на то, что медицинские LLM успешно проходят стандартные тесты производительности, это не гарантирует, что они не подвержены отравлению. Более того, попытки улучшить модели после обучения с помощью тонкой настройки или других методов оказались неэффективными. И это является проблемой, ведь люди, не являющиеся специалистами в области медицины, часто будут обращаться за информацией к универсальным поисковым LLM, а не к специализированным медицинским моделям, прошедшим проверку.

В качестве решения проблемы предложен алгоритм перекрестной проверки результатов LLM на основе графа биомедицинских знаний. Этот алгоритм способен выявлять фразы, не прошедшие проверку. Но, в конечном итоге, создание стабильно надежных медицинских LLM остается сложной задачей, усугубляемой устареванием и противоречивостью информации даже в надежных базах данных, таких как PubMed.


Новое на сайте

19777Когда комета PanSTARRS станет видна невооружённым глазом? 19776Почему списки «качеств лидера» не работают и что делают настоящие руководители 19775Спичечные этикетки как летопись потерянного Малибу 19774Тёмная материя корпоративных учётных записей: почему половина цифровых идентичностей... 19773Тысячи уязвимостей нулевого дня: что нашла ИИ-модель Anthropic в крупнейших системах мира 19772Как женщина начала чихать личинками и поставила врачей в тупик? 19771Почему учёный-изгнанник из Ирана получает главную водную премию мира? 19770Вечные химикаты: как DuPont отравил планету 19769ДНК раскрыла происхождение человека из испанского мегалита, но его вера так и осталась... 19768Какапо: самый толстый попугай планеты переживает рекордный бэби-бум 19767Docker позволял взломать хост одним большим запросом — и ИИ сам до этого додумался 19766Откуда взялась республиканская партия: революция или консерватизм? 19765ИИ в медицине: когда алгоритм «видит» то, чего нет 19764Почему зрелые системы управления доступом в 2026 году стали опаснее, чем незрелые? 19763Почему пароли до сих пор обходятся бизнесу дороже, чем кажется?
Ссылка