EvoTool: Selbstoptimierung von Tool‑Nutzungsstrategien in LLM-Agenten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

LLM‑basierte Agenten brauchen effektive Tool‑Nutzungsstrategien, um komplexe Aufgaben zu lösen. Die Optimierung dieser Strategien ist jedoch schwierig, weil die Rückmeldungen verzögert sind und die Zuordnung von Erfolgen und Fehlern über lange Zeiträume hinweg unklar bleibt.

Viele bestehende Ansätze sind entweder monolithisch und verflechten die Agentenverhalten zu stark, oder sie betrachten nur einen einzelnen Aspekt und ignorieren, wie Fehler in einem Modul andere Module beeinflussen. EvoTool löst diese Probleme mit einem selbstentwickelnden, evolutionsbasierten Verfahren, das keine Gradienten benötigt.

Die Methode zerlegt die Tool‑Nutzungsstrategie in vier Module – Planner, Selector, Caller und Synthesizer – und verbessert sie in einem iterativen Lernzyklus. Dabei kommen drei neuartige Mechanismen zum Einsatz: Trajectory‑Grounded Blame Attribution lokalisiert Fehler auf ein bestimmtes Modul, Feedback‑Guided Targeted Mutation bearbeitet gezielt dieses Modul anhand natürlicher Sprachkritik, und Diversity‑Aware Population Selection sorgt dafür, dass die Population vielfältig bleibt und verschiedene Lösungsansätze erhalten bleiben.

In vier Benchmark‑Tests übertrifft EvoTool starke Baselines um mehr als fünf Punkte sowohl bei GPT‑4.1 als auch bei Qwen3‑8B. Zusätzlich zeigt es höhere Effizienz und bessere Übertragbarkeit auf neue Aufgaben. Der zugehörige Code wird nach Annahme des Papers veröffentlicht.

Ähnliche Artikel