<p>LLMs im Netzwerk: Wie Interaktion Halluzinationen beeinflusst</p> <p>In einer brandneuen Untersuchung wird gezeigt, wie ein Netzwerk von großen Sprachmodellen (LLMs) gemeinsam Fragen beantwortet und dabei die wahre Antwort aus verstreuten Dokumenten ermittelt. Die Autoren betonen, dass LLMs häufig Halluzinationen erzeugen, wenn keine eindeutigen Belege vorliegen – ein Problem, das sich in einem Netzwerk noch verstärkt, wenn fehlerhafte Antworten weitergegeben werden.</p> <p>Zur Analyse kombinieren die Fo

arXiv – cs.AI Original
Anzeige