CausalGuard: KI-System erkennt und verhindert Halluzinationen in Sprachmodellen
Große Sprachmodelle haben die Art und Weise, wie wir mit KI interagieren, revolutioniert – doch ihr größtes Problem bleibt die „Halluzination“, also die selbstbewusste Aussage falscher Fakten. Dieses Phänomen stellt ein ernstes Hindernis dar, wenn Genauigkeit entscheidend ist.
Mit CausalGuard wird ein neues Konzept vorgestellt, das kausales Denken mit symbolischer Logik verbindet, um Halluzinationen bereits während der Generierung zu erkennen und zu verhindern. Im Gegensatz zu bisherigen Ansätzen, die nur die fertigen Ausgaben prüfen, analysiert das System die Ursache-Wirkungs-Kette, die zu falschen Aussagen führt, und greift frühzeitig ein.
Das System arbeitet über zwei ergänzende Pfade: Einer verfolgt die kausalen Beziehungen zwischen dem Wissen des Modells und dem, was es erzeugt, während der andere die logische Konsistenz mithilfe automatisierter Beweisführung überprüft. Durch diese Kombination kann CausalGuard die meisten Halluzinationen frühzeitig abfangen.
In Tests an zwölf Benchmarks konnte CausalGuard Halluzinationen zu 89,3 % korrekt identifizieren und nur 8,3 % der tatsächlichen Fehler übersehen. Gleichzeitig reduziert es falsche Behauptungen um fast 80 %, ohne die Natürlichkeit und Hilfreichkeit der Antworten zu beeinträchtigen. Besonders bei komplexen, mehrstufigen Logikaufgaben zeigt es herausragende Leistungen.
Da das System seine Überlegungen transparent darstellt, eignet es sich besonders für sensible Bereiche wie medizinische Diagnosen oder Finanzanalysen, wo nachvollziehbare Entscheidungswege entscheidend sind.