LLM‑KGFR: Neue Methode für Wissensgraph‑Fragen ohne Feinabstimmung
Große Sprachmodelle (LLMs) sind hervorragend im logischen Denken, doch bei Fragen, die umfangreiches Wissen erfordern, stoßen sie an ihre Grenzen. Der begrenzte Kontext und die parametrierte Wissensbasis führen dazu, dass LLMs bei komplexen, wissensintensiven Aufgaben oft an ihre Leistungsgrenzen stoßen. Traditionelle Ansätze, die auf feinabgestimmten LLMs oder Graph Neural Networks (GNN) basieren, sind häufig an spezifische Datensätze gebunden und skalieren schlecht auf große oder unbekannte Graphen.