Interaktive Graphen reduzieren Halluzinationen in LLMs
Große Sprachmodelle (LLMs) haben in den letzten Jahren enorme Fortschritte bei der Interpretation und Erzeugung natürlicher Sprache gemacht. In Unternehmensumgebungen werden sie häufig mit proprietärem Fachwissen kombiniert, um kontextuell fundierte Antworten zu liefern. Doch begrenzte Kontextfenster und Diskrepanzen zwischen den Trainingsdaten und den bereitgestellten Informationen führen oft zu Halluzinationen – falschen, aber überzeugenden Aussagen, die den menschlichen Prüfer übersehen.
Aktuelle Ansätze zur Vermeidung solcher Fehler beruhen entweder auf teurer, groß angelegter Gold-Standard-Q&A-Kuration oder auf der Überprüfung durch ein zweites Modell. Beide Methoden bieten keine deterministische Sicherheit und sind mit hohen Kosten verbunden.
Die neue Studie präsentiert ein Framework, das proprietäres Wissen und vom Modell generierte Inhalte in interaktive Wissensgraphen überführt. Durch die Verknüpfung von Modellaussagen mit ihren Quellen und die Anzeige von Vertrauenswerten erhalten Anwender eine klare, intuitive Übersicht über potenzielle Halluzinationsbereiche. So können Inkonsistenzen schnell erkannt und Schwachstellen im Argumentationsfluss identifiziert werden.
Der daraus resultierende Mensch-in‑der‑Schleife-Workflow schafft einen strukturierten Feedback‑Loop, der die Zuverlässigkeit der Modelle kontinuierlich verbessert. Anwender können gezielt Korrekturen vorschlagen, die das Modell in zukünftigen Antworten berücksichtigen kann, wodurch die Gesamtqualität der generierten Texte nachhaltig gesteigert wird.