Forschung arXiv – cs.AI

Wie entstehen Halluzinationen in Sprachmodellen? Ein graphbasiertes Analysemodell

In großen Sprachmodellen (LLMs) tauchen häufig „Reasoning‑Halluzinationen“ auf: flüssige, aber faktisch unzutreffende Aussagen, die weder dem Kontext noch dem zugrunde liegenden Wissen entsprechen. Trotz ihrer Häufigkei…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In großen Sprachmodellen (LLMs) tauchen häufig „Reasoning‑Halluzinationen“ auf: flüssige, aber faktisch unzutreffende Aussagen, die weder dem Kontext noch dem zugrunde l…
  • Trotz ihrer Häufigkeit sind die genauen Mechanismen, die diese Fehler auslösen, bislang wenig verstanden.
  • Die neue Studie betrachtet die Vorhersage des nächsten Tokens als einen Graphensuchprozess.

In großen Sprachmodellen (LLMs) tauchen häufig „Reasoning‑Halluzinationen“ auf: flüssige, aber faktisch unzutreffende Aussagen, die weder dem Kontext noch dem zugrunde liegenden Wissen entsprechen. Trotz ihrer Häufigkeit sind die genauen Mechanismen, die diese Fehler auslösen, bislang wenig verstanden.

Die neue Studie betrachtet die Vorhersage des nächsten Tokens als einen Graphensuchprozess. Knoten repräsentieren Entitäten, während die vom Modell gelernten Übergänge Kanten bilden. Kontextabhängiges Denken wird dabei als eingeschränkte Suche in einem zufällig gezogenen Teilgraphen (intrinsische Logik) beschrieben, während kontextfreie Anfragen auf bereits im Graphen verankerten Strukturen (extrinsische Logik) zurückgreifen.

Aus dieser Sicht lassen sich Halluzinationen eindeutig auf zwei fundamentale Prozesse zurückführen: Path Reuse und Path Compression. Beim Path Reuse überlagert sich frühzeitig gespeichertes Wissen über die Kontextbeschränkungen, sodass das Modell falsche, aber vertraute Pfade wählt. Im späteren Training führt Path Compression dazu, dass häufig genutzte mehrstufige Pfade zu Kurzpfaden zusammengefasst werden, was wiederum zu ungenauen, aber überzeugenden Ausgaben führt.

Diese beiden Mechanismen liefern eine einheitliche Erklärung für die beobachteten Halluzinationen und verknüpfen sie mit bekannten Verhaltensmustern in praktischen Anwendungen. Die Erkenntnisse eröffnen neue Perspektiven für die Entwicklung robusterer und vertrauenswürdigerer Sprachmodelle.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.

Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.

Welches konkrete Problem loest das Modell besser als bisher?
Was bedeutet die Neuerung fuer Geschwindigkeit, Kosten oder Zuverlaessigkeit?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLM
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Reasoning-Halluzinationen
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Graphensuchprozess
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen