Dynamische Tool-Abhängigkeitsabfrage steigert Funktionsaufrufe um bis zu 104 %

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Agenten, die auf großen Sprachmodellen (LLMs) basieren, greifen zunehmend auf externe Tools zurück, um komplexe Aufgaben zu automatisieren. Dabei spielt ein Retrieval‑Modul eine zentrale Rolle: Es wählt die für die aktuelle Anfrage relevanten Werkzeuge aus, reduziert die Kontextlänge und steigert die Leistung.

Traditionelle Retrieval‑Methoden nutzen jedoch statische, begrenzte Eingaben. Sie erfassen weder die mehrstufigen Abhängigkeiten zwischen Tools noch die sich wandelnde Aufgaben­kontext. Das Ergebnis sind oft irrelevante Werkzeuge, die die Agenten in die Irre führen und die Effizienz sowie Genauigkeit mindern.

Die neue Methode Dynamic Tool Dependency Retrieval (DTDR) löst dieses Problem, indem sie die Auswahl der Tools dynamisch an die ursprüngliche Anfrage sowie an den sich entwickelnden Ausführungs­kontext anpasst. DTDR lernt Tool‑Abhängigkeiten aus Demonstrationen des Funktionsaufrufs und ermöglicht so eine adaptive Retrieval‑Strategie, die mit dem Plan des Agenten Schritt hält.

In umfangreichen Benchmarks wurde DTDR gegen aktuelle Retrieval‑Methoden auf mehreren Datensätzen und LLM‑Backbones getestet. Die Bewertung umfasste Retrieval‑Präzision, die Genauigkeit der nachfolgenden Aufgaben und die Rechen­effizienz.

Die Ergebnisse zeigen, dass die dynamische Tool‑Abfrage die Erfolgsraten bei Funktionsaufrufen um 23 % bis 104 % gegenüber statischen Retrievern steigert. Damit demonstriert DTDR einen bedeutenden Fortschritt für die praktische Anwendung von LLM‑Agenten.

Ähnliche Artikel