LLM-based Agents Suffer from Hallucinations: A Survey of Taxonomy, Methods, and Directions
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
Inteligencia Artificial jur\'idica y el desaf\'io de la veracidad: an\'alisis de alucinaciones, optimizaci\'on de RAG y principios para una integraci\'on responsable
arXiv – cs.LG
•
BarcodeMamba+ revolutioniert die Fungi-Barcode‑Klassifikation
arXiv – cs.AI
•
KI-gestützte Annotation-Pipelines stabilisieren große Sprachmodelle
arXiv – cs.AI
•
Semantic Grounding Index: Geometrische Grenzen der Kontextbindung in RAG-Systemen
arXiv – cs.AI
•
LLMs meistern PhD-Mathematik: Benchmark aus Theoretischer Informatik
arXiv – cs.AI
•
Neue Skala misst kritisches Denken bei der Nutzung von generativer KI