Forschung arXiv – cs.LG

Weniger Lärm, mehr Stimme: RLVR verbessert LLM-Logik durch Prompt‑Purification

Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) hat die Fähigkeit von großen Sprachmodellen (LLMs) zur logischen Argumentation deutlich verbessert. Dennoch bleibt die Exploration ineffizient, wenn die Anza…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) hat die Fähigkeit von großen Sprachmodellen (LLMs) zur logischen Argumentation deutlich verbessert.
  • Dennoch bleibt die Exploration ineffizient, wenn die Anzahl der Rollouts begrenzt ist.
  • Das führt zu niedriger Stichprobenerfolgsrate und instabiler Trainingsdynamik bei komplexen Aufgaben.

Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) hat die Fähigkeit von großen Sprachmodellen (LLMs) zur logischen Argumentation deutlich verbessert. Dennoch bleibt die Exploration ineffizient, wenn die Anzahl der Rollouts begrenzt ist. Das führt zu niedriger Stichprobenerfolgsrate und instabiler Trainingsdynamik bei komplexen Aufgaben.

Die Autoren haben herausgefunden, dass die meisten Exploration‑Fehler nicht an der Schwierigkeit der Aufgaben liegen, sondern an einer kleinen Anzahl von Prompt‑Tokens, die störende Interferenzen erzeugen. Diese Tokens behindern die Lernprozesse, obwohl die eigentliche Aufgabe lösbar ist.

Auf dieser Erkenntnis basiert das neue Less Noise Sampling Framework (LENS). Zunächst werden die störenden Tokens identifiziert und entfernt. Anschließend werden die erfolgreichen Rollouts aus diesem „Reinigungsprozess“ genutzt, um die Policy‑Optimierung auf den ursprünglichen, verrauschten Prompts zu trainieren. Dadurch lernt das Modell, Interferenzen in realen, verrauschten Prompt‑Umgebungen zu ignorieren.

Experimentelle Ergebnisse zeigen, dass LENS die Konkurrenz GRPO deutlich übertrifft: Es erzielt durchschnittlich 3,88 % höhere Leistungen und beschleunigt die Konvergenz um mehr als das 1,6‑fache. Die Arbeit unterstreicht die entscheidende Rolle des Prunings von Interferenz‑Tokens für die Effizienz von Rollouts und eröffnet neue Perspektiven für die Weiterentwicklung von RLVR.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Welches konkrete Problem loest das Modell besser als bisher?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Reinforcement Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
LLM
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
RLVR
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen