Weniger Lärm, mehr Stimme: RLVR verbessert LLM-Logik durch Prompt‑Purification
Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) hat die Fähigkeit von großen Sprachmodellen (LLMs) zur logischen Argumentation deutlich verbessert. Dennoch bleibt die Exploration ineffizient, wenn die Anza…
- Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) hat die Fähigkeit von großen Sprachmodellen (LLMs) zur logischen Argumentation deutlich verbessert.
- Dennoch bleibt die Exploration ineffizient, wenn die Anzahl der Rollouts begrenzt ist.
- Das führt zu niedriger Stichprobenerfolgsrate und instabiler Trainingsdynamik bei komplexen Aufgaben.
Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) hat die Fähigkeit von großen Sprachmodellen (LLMs) zur logischen Argumentation deutlich verbessert. Dennoch bleibt die Exploration ineffizient, wenn die Anzahl der Rollouts begrenzt ist. Das führt zu niedriger Stichprobenerfolgsrate und instabiler Trainingsdynamik bei komplexen Aufgaben.
Die Autoren haben herausgefunden, dass die meisten Exploration‑Fehler nicht an der Schwierigkeit der Aufgaben liegen, sondern an einer kleinen Anzahl von Prompt‑Tokens, die störende Interferenzen erzeugen. Diese Tokens behindern die Lernprozesse, obwohl die eigentliche Aufgabe lösbar ist.
Auf dieser Erkenntnis basiert das neue Less Noise Sampling Framework (LENS). Zunächst werden die störenden Tokens identifiziert und entfernt. Anschließend werden die erfolgreichen Rollouts aus diesem „Reinigungsprozess“ genutzt, um die Policy‑Optimierung auf den ursprünglichen, verrauschten Prompts zu trainieren. Dadurch lernt das Modell, Interferenzen in realen, verrauschten Prompt‑Umgebungen zu ignorieren.
Experimentelle Ergebnisse zeigen, dass LENS die Konkurrenz GRPO deutlich übertrifft: Es erzielt durchschnittlich 3,88 % höhere Leistungen und beschleunigt die Konvergenz um mehr als das 1,6‑fache. Die Arbeit unterstreicht die entscheidende Rolle des Prunings von Interferenz‑Tokens für die Effizienz von Rollouts und eröffnet neue Perspektiven für die Weiterentwicklung von RLVR.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.