SABER: Token‑budgetierte LLM‑Reasoning reduziert Kosten um 65 %

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die neue Methode SABER (Switchable and Balanced Training for Efficient LLM Reasoning) nutzt ein Reinforcement‑Learning‑Framework, um große Sprachmodelle (LLMs) mit token‑budgetierter, nutzerkontrollierbarer Argumentation auszustatten. Durch die Analyse des Token‑Verbrauchs jedes Trainingsbeispiels werden diese in vordefinierte Budget‑Stufen eingeteilt, sodass das Modell während des Fine‑Tuning gezielt innerhalb seiner zugewiesenen Grenzen bleibt.

Ein besonderes Merkmal von SABER ist die Einbindung von „no‑think“-Beispielen, die das Modell auch dann zuverlässig funktionieren lassen, wenn die explizite Argumentation deaktiviert ist. Zusätzlich unterstützt die Technik vier unterschiedliche Inferenz‑Modi – NoThink, FastThink, CoreThink und DeepThink – die flexible Trade‑Offs zwischen Latenz und Tiefe der Argumentation ermöglichen.

Umfangreiche Tests auf Mathematik‑Aufgaben (MATH, GSM8K), Code‑Generierung (MBPP) und logischem Denken (LiveBench‑Reasoning) zeigen, dass SABER unter engen Budget‑Beschränkungen hohe Genauigkeiten erzielt, sich sanft verschlechtert, wenn das Budget reduziert wird, und gleichzeitig über verschiedene Skalen und Domänen hinweg gut generalisiert. Besonders hervorzuheben ist, dass der FastThink‑Modus die Argumentationslänge um 65,4 % reduziert und gleichzeitig eine Genauigkeitssteigerung von 3,6 % gegenüber dem Basismodell auf dem MATH‑Benchmark erzielt.

Ähnliche Artikel