KI‑Halluzinationen: Warum Sprachmodelle trotz Unsicherheit falsche Antworten geben
In einer brandaktuellen Studie von Forschern auf arXiv wird ein entscheidender Grund für die Halluzinationen von Sprachmodellen aufgedeckt: Sie erkennen zwar Unsicherheit in Eingaben, verknüpfen diese jedoch nicht korre…