Strukturierte Denk‑Aktions‑Sequenzen verbessern Perspektivwechsel in LLMs

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Neuste Fortschritte bei großen Sprachmodellen (LLMs) und neuen Denk‑Frameworks eröffnen neue Möglichkeiten, die Fähigkeit von autonomen Agenten zur Perspektivübernahme zu verbessern. Dennoch stellen Aufgaben, die aktives Sehen, kollaboratives Denken und das Verständnis dessen, was ein anderer Agent sehen oder wissen kann, weiterhin große Herausforderungen dar.

In einer aktuellen Studie wurde untersucht, ob strukturierte Beispiele aus transformierten Lösungs­graphen des Fast Downward‑Planers die Leistung von LLM‑basierten Agenten im ReAct‑Framework steigern können. Dazu wurde ein Pipeline‑Ansatz entwickelt, der drei Beispielkategorien erzeugt: optimale Zielpfade (G‑Typ), informative Knotens­pfade (E‑Typ) und schrittweise optimale Entscheidungs­sequenzen, die alternative Aktionen vergleichen (L‑Typ). Anschließend werden diese Lösungen in „Gedanken‑Aktions“-Beispiele umgewandelt, indem das LLM aufgefordert wird, die Begründung jeder Entscheidung explizit zu formulieren.

Die Ergebnisse zeigen, dass L‑Typ‑Beispiele die Anzahl der Klarstellungsanfragen und die Gesamtzahl der Aktionen leicht reduzieren, jedoch keine konsistenten Verbesserungen bringen. Die Agenten bewältigen Aufgaben mit einfacher Aufmerksamkeits­filterung gut, kämpfen aber mit Szenarien, die ein mentalisieren über verdeckte Räume oder das Abwägen der Kosten epistemischer Aktionen erfordern.

Die Studie legt nahe, dass strukturierte Beispiele allein nicht ausreichen, um robuste Perspektivübernahme zu erreichen. Stattdessen sind explizite Glaubensverfolgung, Kostenmodellierung und reichhaltigere Umgebungen erforderlich, um sozial fundierte Kooperationen in LLM‑gestützten Systemen zu ermöglichen.

Ähnliche Artikel