Forschung arXiv – cs.AI

LatentAudit: Echtzeit-Überwachung der Vertrauenswürdigkeit bei RAG

Retrieval‑Augmented Generation (RAG) reduziert zwar Halluzinationen, eliminiert sie jedoch nicht vollständig. Ein produktiv eingesetztes System muss daher bei jeder Inferenz prüfen, ob die generierte Antwort tatsächlich…

≈2 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Retrieval‑Augmented Generation (RAG) reduziert zwar Halluzinationen, eliminiert sie jedoch nicht vollständig.
  • Ein produktiv eingesetztes System muss daher bei jeder Inferenz prüfen, ob die generierte Antwort tatsächlich durch die abgerufenen Belege gestützt wird.
  • Mit LatentAudit wird diese Prüfung zum White‑Box‑Auditor, der die mittleren bis späten Residual‑Stream‑Aktivierungen eines Open‑Weight‑Generators sammelt und deren Mahal…

Retrieval‑Augmented Generation (RAG) reduziert zwar Halluzinationen, eliminiert sie jedoch nicht vollständig. Ein produktiv eingesetztes System muss daher bei jeder Inferenz prüfen, ob die generierte Antwort tatsächlich durch die abgerufenen Belege gestützt wird. Mit LatentAudit wird diese Prüfung zum White‑Box‑Auditor, der die mittleren bis späten Residual‑Stream‑Aktivierungen eines Open‑Weight‑Generators sammelt und deren Mahalanobis‑Distanz zur Repräsentation der Belege misst.

Die daraus resultierende quadratische Regel benötigt kein zusätzliches Urteilssystem, läuft in Echtzeit während der Generierung und lässt sich dank ihrer Einfachheit auf einer kleinen Hold‑Out‑Menge kalibrieren. Untersuchungen zeigen, dass die Geometrie des Residual‑Streams ein brauchbares Vertrauenssignal liefert, das sowohl bei Architekturänderungen als auch bei realistischen Retrieval‑Fehlern erhalten bleibt. Darüber hinaus bleibt die Regel öffentlich verifizierbar.

In Tests mit PubMedQA und dem Modell Llama‑3‑8B erreicht LatentAudit einen AUROC von 0,942 bei einem Overhead von lediglich 0,77 ms. Auf drei weiteren QA‑Benchmarks und fünf Modellfamilien (Llama‑2/3, Qwen‑2.5/3, Mistral) bleibt die Überwachung stabil. Unter einem vier‑Wege‑Stresstest, der Widersprüche, Retrieval‑Fehlermeldungen und teilweise unterstützende Rauschelemente simuliert, erzielt die Regel AUROC‑Werte zwischen 0,9566 und 0,9815 bei PubMedQA sowie zwischen 0,9142 und 0,9315 bei HotpotQA.

Bei 16‑Bit‑Fixed‑Point‑Präzision behält die Auditrule 99,8 % des FP16‑AUROC bei, was eine Groth16‑basierte öffentliche Verifikation ermöglicht, ohne Modellgewichte oder Aktivierungen preiszugeben. Diese Ergebnisse etablieren die Residual‑Stream‑Geometrie als praktikable Grundlage für die Echtzeit‑Überwachung der Vertrauenswürdigkeit in RAG‑Systemen und eröffnen zugleich die Möglichkeit eines optional verifizierbaren Deployments.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Retrieval-Augmented Generation
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
LatentAudit
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Mahalanobis-Distanz
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen