LLM-based Agents Suffer from Hallucinations: A Survey of Taxonomy, Methods, and Directions
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
Inteligencia Artificial jur\'idica y el desaf\'io de la veracidad: an\'alisis de alucinaciones, optimizaci\'on de RAG y principios para una integraci\'on responsable
arXiv – cs.AI
•
HUMANSTUDY-BENCH: KI-Agenten simulieren menschliche Experimente zuverlässig
arXiv – cs.LG
•
OGD4All: KI-Tool für transparente Interaktion mit geographischen Open-Data
arXiv – cs.LG
•
CARE‑RFT: Vertrauen & Rechenleistung vereint – neue Methode für LLM‑Reasoning
arXiv – cs.AI
•
Halluzinationen bei Deep Research Agents: Warum sie scheitern
arXiv – cs.LG
•
SCALAR-Benchmark prüft Halluzinationen und Konsistenz in Material-ML-Modellen