ART: Adaptive Reasoning Trees revolutionieren erklärbare Anspruchsprüfung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Large Language Models (LLMs) haben das Potenzial, komplexe Entscheidungen zu treffen, indem sie umfangreiches Wissen nutzen und erstaunliche Zero‑Shot-Fähigkeiten zeigen. Ihre breite Anwendung in sicherheitskritischen Bereichen bleibt jedoch durch mangelnde Transparenz eingeschränkt, da ihre Ergebnisse keine verlässlichen Erklärungen liefern und Fehler nicht einfach korrigiert werden können.

In der vorliegenden Arbeit wird ART (Adaptive Reasoning Trees) vorgestellt – ein hierarchisches Verfahren zur Überprüfung von Behauptungen. Der Prozess beginnt mit einer Ausgangsbehauptung, die sich in unterstützende und angreifende Unterargumente aufgliedert. Die Stärke jedes Arguments wird von unten nach oben bestimmt, indem die Unterargumente in Paarturnieren gegeneinander antreten. Ein „Judge“-LLM entscheidet über die Ergebnisse, sodass ein finales, transparentes und prüfbares Urteil entsteht – ein Merkmal, das bei herkömmlichen Methoden wie Chain‑of‑Thought fehlt.

Durch umfangreiche Experimente auf mehreren Datensätzen, in denen verschiedene Argumentgeneratoren und Vergleichsstrategien getestet wurden, konnte gezeigt werden, dass ART die strukturierten Argumentationswege besser nutzt als starke Baselines. Das Ergebnis ist ein neuer Maßstab für erklärbare Anspruchsprüfung, der sowohl zuverlässiger als auch klarer in der Entscheidungsfindung ist.

Ähnliche Artikel