ART: Adaptive Reasoning Trees revolutionieren erklärbare Anspruchsprüfung
Large Language Models (LLMs) haben das Potenzial, komplexe Entscheidungen zu treffen, indem sie umfangreiches Wissen nutzen und erstaunliche Zero‑Shot-Fähigkeiten zeigen. Ihre breite Anwendung in sicherheitskritischen Bereichen bleibt jedoch durch mangelnde Transparenz eingeschränkt, da ihre Ergebnisse keine verlässlichen Erklärungen liefern und Fehler nicht einfach korrigiert werden können.