Neues Verfahren eliminiert Halluzinationen in Sprachmodellen
Ein neues Forschungsdokument auf arXiv (2509.25252v1) präsentiert die Methode „Fact Grounded Attention“ (FGA), die Sprachmodelle von der probabilistischen Unsicherheit in feste Wahrheiten verwandelt. Durch die direkte Einbindung verifizierbarer Fakten in die Attention‑Scores eines Transformers wird das Modell so angepasst, dass es keine Halluzinationen mehr erzeugt, sobald die relevanten Informationen im Wissensspeicher vorhanden sind.