CausalPlan: Effiziente LLM-Multi-Agent-Kollaboration durch kausale Planung
Eine neue Methode namens CausalPlan verspricht, die Zusammenarbeit von Sprachmodell-Agenten deutlich zu verbessern. Durch die Integration von kausaler Logik in den Planungsprozess können die Agenten konsistentere und sinnvollere Entscheidungen treffen.
Derzeit neigen kleinere, Open‑Source‑LLMs dazu, Aktionen zu wählen, die zwar statistisch häufig vorkommen, aber kausal nicht zusammenhängen. Das führt zu inkohärenten Handlungen und schlechter Koordination in dynamischen Umgebungen.
CausalPlan nutzt ein zweistufiges Framework. Im ersten Schritt lernt das Structural Causal Action (SCA) Modell aus den Trajektorien der Agenten einen kausalen Graphen, der aufzeigt, wie frühere Aktionen und aktuelle Zustände zukünftige Entscheidungen beeinflussen.
Im zweiten Schritt werden die von den LLMs generierten Aktionsvorschläge mit kausalen Scores bewertet. Diese Scores bestimmen, wie stark ein Vorschlag gewichtet wird, oder führen zu einem Fallback auf kausal fundierte Alternativen, wenn nötig.
Ein großer Vorteil ist, dass das LLM selbst nicht feinabgestimmt werden muss – die kausale Struktur wird direkt in den Entscheidungsloop eingebettet.
Die Wirksamkeit von CausalPlan wurde am Overcooked‑AI Benchmark getestet. Dort wurden fünf Kooperationsaufgaben mit vier unterschiedlichen LLMs (Gemma‑7B, Llama‑8B, Qwen‑14B, Llama‑70B) durchgeführt.
Die Ergebnisse zeigen, dass CausalPlan die Anzahl inkorrekter Aktionen reduziert und die Zusammenarbeit – sowohl zwischen KI-Agenten als auch zwischen Mensch und KI – deutlich verbessert. Im Vergleich zu starken Reinforcement‑Learning‑Baselines übertrifft es diese Modelle in den gemessenen Metriken.
Diese Studie unterstreicht den Nutzen kausal getriebener Planung für die effiziente und zuverlässige Einsatzbereitschaft von Sprachmodell-Agenten in kollaborativen Szenarien.