Wie entstehen Halluzinationen in Sprachmodellen? Ein graphbasiertes Analysemodell
In großen Sprachmodellen (LLMs) tauchen häufig „Reasoning‑Halluzinationen“ auf: flüssige, aber faktisch unzutreffende Aussagen, die weder dem Kontext noch dem zugrunde liegenden Wissen entsprechen. Trotz ihrer Häufigkei…