Исследователи подчеркнули важность мер, направленных на защиту медицинских знаний
, Источник: techxplore.com , Источник фото: freepik.com

Исследователи из Пекинского и Вашингтонского университетов показали, что большие языковые модели (LLM) могут быть использованы для отравления биомедицинских графов знаний (KG). Они показали, как LLM могут создавать сфабрикованные научные статьи, подрывая доверие к KG и влияя на медицинские исследования.
Цель исследования — изучить возможность искажения KG и оценить его влияние на биомедицинские открытия. Исследователи разработали конвейер Scorpius для создания вредоносных аннотаций, которые повышают релевантность между парами «лекарство — заболевание».
Они смешали эти аннотации с реальными научными статьями и обнаружили, что один вредоносный список может повысить рейтинг 71,3% пар «лекарство — заболевание». Это подчеркивает критическую уязвимость KG и необходимость мер по защите медицинских знаний.
