LLMs erzeugen Halluzinationen: Studie zeigt Risiken bei Prozessmodellierung
Eine neue Untersuchung auf arXiv (2509.15336v1) beleuchtet ein bislang wenig beachtetes Problem von großen Sprachmodellen (LLMs): die sogenannte „knowledge‑driven hallucination“. Dabei widersprechen die von LLMs generie…