Hallucination Detection with the Internal Layers of LLMs
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
CoS: Iterative Zusammenfassungen verbessern LLM-Performance um bis zu 66 %
arXiv – cs.AI
•
Investigating Symbolic Triggers of Hallucination in Gemma Models Across HaluEval and TruthfulQA
arXiv – cs.AI
•
KI-gestützte Gefahrenerkennung auf Baustellen: Multimodale Modelle im Einsatz
arXiv – cs.AI
•
KI-Assistenz für Biomechanik: LLMs und Agenten verbessern das Studium
arXiv – cs.AI
•
Multi-Agent-LLM-Orchestrierung liefert Incident-Response-Entscheidungen
arXiv – cs.AI
•
Emotionale Verarbeitung erklärt, warum Sprachmodelle Theory of Mind zeigen