Forschung arXiv – cs.LG

Dynamische Tool-Abhängigkeitsabfrage steigert Funktionsaufrufe um bis zu 104 %

Agenten, die auf großen Sprachmodellen (LLMs) basieren, greifen zunehmend auf externe Tools zurück, um komplexe Aufgaben zu automatisieren. Dabei spielt ein Retrieval‑Modul eine zentrale Rolle: Es wählt die für die aktu…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Agenten, die auf großen Sprachmodellen (LLMs) basieren, greifen zunehmend auf externe Tools zurück, um komplexe Aufgaben zu automatisieren.
  • Dabei spielt ein Retrieval‑Modul eine zentrale Rolle: Es wählt die für die aktuelle Anfrage relevanten Werkzeuge aus, reduziert die Kontextlänge und steigert die Leistun…
  • Traditionelle Retrieval‑Methoden nutzen jedoch statische, begrenzte Eingaben.

Agenten, die auf großen Sprachmodellen (LLMs) basieren, greifen zunehmend auf externe Tools zurück, um komplexe Aufgaben zu automatisieren. Dabei spielt ein Retrieval‑Modul eine zentrale Rolle: Es wählt die für die aktuelle Anfrage relevanten Werkzeuge aus, reduziert die Kontextlänge und steigert die Leistung.

Traditionelle Retrieval‑Methoden nutzen jedoch statische, begrenzte Eingaben. Sie erfassen weder die mehrstufigen Abhängigkeiten zwischen Tools noch die sich wandelnde Aufgaben­kontext. Das Ergebnis sind oft irrelevante Werkzeuge, die die Agenten in die Irre führen und die Effizienz sowie Genauigkeit mindern.

Die neue Methode Dynamic Tool Dependency Retrieval (DTDR) löst dieses Problem, indem sie die Auswahl der Tools dynamisch an die ursprüngliche Anfrage sowie an den sich entwickelnden Ausführungs­kontext anpasst. DTDR lernt Tool‑Abhängigkeiten aus Demonstrationen des Funktionsaufrufs und ermöglicht so eine adaptive Retrieval‑Strategie, die mit dem Plan des Agenten Schritt hält.

In umfangreichen Benchmarks wurde DTDR gegen aktuelle Retrieval‑Methoden auf mehreren Datensätzen und LLM‑Backbones getestet. Die Bewertung umfasste Retrieval‑Präzision, die Genauigkeit der nachfolgenden Aufgaben und die Rechen­effizienz.

Die Ergebnisse zeigen, dass die dynamische Tool‑Abfrage die Erfolgsraten bei Funktionsaufrufen um 23 % bis 104 % gegenüber statischen Retrievern steigert. Damit demonstriert DTDR einen bedeutenden Fortschritt für die praktische Anwendung von LLM‑Agenten.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.

Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.

Welches konkrete Problem loest das Modell besser als bisher?
Was bedeutet die Neuerung fuer Geschwindigkeit, Kosten oder Zuverlaessigkeit?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLM
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Retrieval
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
DTDR
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen