Forschung arXiv – cs.LG

Token‑Effizientes RL: NAT reduziert Rechenaufwand bei langen CoT‑Trails

Reinforcement Learning (RL) hat die Entwicklung großer Sprachmodelle maßgeblich vorangetrieben, doch die Skalierung von RL auf lange Chain‑of‑Thought‑Sequenzen wird zunehmend durch die Notwendigkeit, jeden generierten T…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Reinforcement Learning (RL) hat die Entwicklung großer Sprachmodelle maßgeblich vorangetrieben, doch die Skalierung von RL auf lange Chain‑of‑Thought‑Sequenzen wird zune…
  • Der gesamte Trainingsaufwand steigt mit der Tokenlänge, was RL zu einer versteckten Belastung macht.
  • Mit dem neuen Ansatz „Not All Tokens Are Needed“ (NAT) wird das Tokenbudget zu einem zentralen Optimierungsziel.

Reinforcement Learning (RL) hat die Entwicklung großer Sprachmodelle maßgeblich vorangetrieben, doch die Skalierung von RL auf lange Chain‑of‑Thought‑Sequenzen wird zunehmend durch die Notwendigkeit, jeden generierten Token zu backpropagieren, eingeschränkt. Der gesamte Trainingsaufwand steigt mit der Tokenlänge, was RL zu einer versteckten Belastung macht.

Mit dem neuen Ansatz „Not All Tokens Are Needed“ (NAT) wird das Tokenbudget zu einem zentralen Optimierungsziel. NAT aktualisiert die Policy ausschließlich anhand einer gezielt ausgewählten Teilmenge der Tokens, behält aber die volle Lernsignalstärke bei. Der Schlüssel liegt in einem unverzerrten, partiellen Token‑Policy‑Gradienten, der durch Horvitz‑Thompson‑Reweighting statistisch korrekt bleibt, obwohl Tokens subsampled werden.

Die Implementierung von NAT erfolgt über zwei einfache, plug‑and‑play Auswahlverfahren: Uniform Random Sampling (URS) und Random Prefix Cutting (RPC). Beide Methoden reduzieren sowohl die Vorwärts‑ als auch die Rückwärtsberechnung und den Speicherbedarf, ohne die Belohnungsberechnung oder den Rollout‑Pipeline zu verändern. Auf mathematischen Reasoning‑Benchmarks erreicht NAT die gleiche Leistung wie die vollständige Token‑Version, nutzt jedoch nur die Hälfte der Tokens.

In praktischen Experimenten spart RPC bei Qwen3‑8B 18 % Peak‑GPU‑Speicher und 29 % Trainingszeit für Vorwärts- und Rückwärtsberechnungen. NAT bietet damit einen effizienten, orthogonalen Weg, RL über die Grenzen langer Trajektorien hinaus zu skalieren.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Reinforcement Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Tokenbudget
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Horvitz-Thompson Reweighting
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen