Strukturierte Denk‑Aktions‑Sequenzen verbessern Perspektivwechsel in LLMs
Neuste Fortschritte bei großen Sprachmodellen (LLMs) und neuen Denk‑Frameworks eröffnen neue Möglichkeiten, die Fähigkeit von autonomen Agenten zur Perspektivübernahme zu verbessern. Dennoch stellen Aufgaben, die aktives Sehen, kollaboratives Denken und das Verständnis dessen, was ein anderer Agent sehen oder wissen kann, weiterhin große Herausforderungen dar.
In einer aktuellen Studie wurde untersucht, ob strukturierte Beispiele aus transformierten Lösungsgraphen des Fast Downward‑Planers die Leistung von LLM‑basierten Agenten im ReAct‑Framework steigern können. Dazu wurde ein Pipeline‑Ansatz entwickelt, der drei Beispielkategorien erzeugt: optimale Zielpfade (G‑Typ), informative Knotenspfade (E‑Typ) und schrittweise optimale Entscheidungssequenzen, die alternative Aktionen vergleichen (L‑Typ). Anschließend werden diese Lösungen in „Gedanken‑Aktions“-Beispiele umgewandelt, indem das LLM aufgefordert wird, die Begründung jeder Entscheidung explizit zu formulieren.
Die Ergebnisse zeigen, dass L‑Typ‑Beispiele die Anzahl der Klarstellungsanfragen und die Gesamtzahl der Aktionen leicht reduzieren, jedoch keine konsistenten Verbesserungen bringen. Die Agenten bewältigen Aufgaben mit einfacher Aufmerksamkeitsfilterung gut, kämpfen aber mit Szenarien, die ein mentalisieren über verdeckte Räume oder das Abwägen der Kosten epistemischer Aktionen erfordern.
Die Studie legt nahe, dass strukturierte Beispiele allein nicht ausreichen, um robuste Perspektivübernahme zu erreichen. Stattdessen sind explizite Glaubensverfolgung, Kostenmodellierung und reichhaltigere Umgebungen erforderlich, um sozial fundierte Kooperationen in LLM‑gestützten Systemen zu ermöglichen.