TRIM: Schrittweises Routing steigert Effizienz bei mehrstufigen Aufgaben
In der Welt der großen Sprachmodelle (LLMs) stellen mehrstufige Aufgaben wie mathematisches Problemlösen eine besondere Herausforderung dar: ein einziger Fehler kann die gesamte Lösung zum Einsturz bringen. Traditionelle Routing-Methoden weisen einer Anfrage ein einzelnes Modell zu und behandeln alle Schritte gleich. Das neue Verfahren TRIM (Targeted Routing in multi‑step reasoning tasks) ändert dieses Vorgehen grundlegend, indem es nur die kritischen Schritte an die leistungsstärksten Modelle weiterleitet und Routinefortsetzungen von kleineren Modellen bearbeiten lässt.
TRIM arbeitet auf Schritt‑Ebene und nutzt Prozess‑Belohnungsmodelle, um fehleranfällige Schritte zu erkennen. Auf Basis von Unsicherheitsmaßen und Budgetbeschränkungen trifft es Routing‑Entscheidungen. Dabei werden verschiedene Strategien entwickelt – von einer einfachen Schwellenwert‑Politik bis hin zu komplexeren Modellen, die langfristige Genauigkeits‑Kosten‑Abwägungen berücksichtigen.
Die Ergebnisse sind beeindruckend: Auf dem MATH‑500‑Datensatz übertrifft selbst die einfachste Schwellenwert‑Strategie frühere Routing‑Methoden mit einer fünffachen Kosteneffizienz. Fortgeschrittene Policies erreichen die Leistung des teuren Modells, benötigen dafür jedoch 80 % weniger Tokens. Auf anspruchsvolleren Benchmarks wie AIME erzielt TRIM bis zu sechsmal höhere Kosteneffizienz. Die Methoden zeigen zudem eine starke Generalisierung über verschiedene mathematische Reasoning‑Aufgaben hinweg.
TRIM demonstriert, dass gezielte Schritt‑für‑Schritt‑Interventionen die Inferenzeffizienz dramatisch steigern können, indem sie teure Modellaufrufe nur dort einsetzen, wo sie wirklich nötig sind. Diese Erkenntnis eröffnet neue Möglichkeiten, große Sprachmodelle ressourcenschonender und gleichzeitig leistungsfähiger einzusetzen.