Ssylka

Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM

Исследование показало, что даже минимальное добавление ложной медицинской информации (всего 0,001% от объема обучающих данных) в большие языковые модели (LLM) может серьезно подорвать их точность. Вносимая дезинформация, специально сгенерированная LLM, способна не только скомпрометировать ответы по конкретной теме, но и повлиять на общую надежность модели в медицинской области. Это происходит из-за того, что LLM обучаются на основе огромных массивов данных из интернета, где дезинформация широко распространена.
Уязвимость ИИ: малая доля дезинформации фатальна для медицинских LLM
Изображение носит иллюстративный характер

Причем, отравление обучающих данных не требует доступа к самой модели. Достаточно просто разместить нужные «фейковые» данные в открытом доступе. Это может быть в виде обычных веб-страниц, которые модели сканируют и индексируют для обучения. При этом даже скрытый на веб-страницах текст может быть воспринят моделью. А это, в свою очередь, делает процесс отравления достаточно дешевым и простым.

Несмотря на то, что медицинские LLM успешно проходят стандартные тесты производительности, это не гарантирует, что они не подвержены отравлению. Более того, попытки улучшить модели после обучения с помощью тонкой настройки или других методов оказались неэффективными. И это является проблемой, ведь люди, не являющиеся специалистами в области медицины, часто будут обращаться за информацией к универсальным поисковым LLM, а не к специализированным медицинским моделям, прошедшим проверку.

В качестве решения проблемы предложен алгоритм перекрестной проверки результатов LLM на основе графа биомедицинских знаний. Этот алгоритм способен выявлять фразы, не прошедшие проверку. Но, в конечном итоге, создание стабильно надежных медицинских LLM остается сложной задачей, усугубляемой устареванием и противоречивостью информации даже в надежных базах данных, таких как PubMed.


Новое на сайте

19077Каким образом критическая уязвимость CVE-2026-24061 позволяла получать права root на... 19076Роботизированная рука-паук с функцией автономного перемещения и захвата предметов 19075Являлось ли обливание смолой и обваливание в перьях исконно американским изобретением? 19074Критическая уязвимость в Fortinet позволяет хакерам автоматизированно захватывать... 19073Обнаружение древнего святилища геркулеса и элитного погребального комплекса в пригороде... 19072Уникальный случай появления койота на острове алькатрас после изнурительного заплыва... 19071Уникальное искусственное затмение миссии Proba-3 раскрыло редкие солнечные феномены 19070Колоссальный запас древней пресной воды найден под дном атлантического океана 19069Обнаружение челюсти в Эфиопии доказывает сосуществование трех родов гоминидов и расширяет... 19068Память как инструмент правосудия и примирения в постдиктаторском Чили 19067Насколько опасны новые критические уязвимости в Zoom и GitLab? 19066Как умные MSSP используют ИИ для увеличения маржи с половиной штата в реалиях 2026 года? 19065Может ли общение с чат-ботом GPT-4o привести к психозу и вере в цифровое воскрешение? 19064Почему традиционные методы управления уязвимостями уступают место платформам оценки... 19063Почему критические уязвимости в Chainlit и Microsoft MCP открывают хакерам полный доступ...