LLMs erzeugen Halluzinationen: Studie zeigt Risiken bei Prozessmodellierung
Eine neue Untersuchung auf arXiv (2509.15336v1) beleuchtet ein bislang wenig beachtetes Problem von großen Sprachmodellen (LLMs): die sogenannte „knowledge‑driven hallucination“. Dabei widersprechen die von LLMs generierten Ergebnisse expliziten Quellen, weil das Modell auf sein internes, generalisiertes Wissen zurückgreift.