The Choice of Divergence: A Neglected Key to Mitigating Diversity Collapse in Reinforcement Learning with Verifiable Reward
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
Dynamische Hybrid-Optimierung: Token- und Sequenz-Strategien vereint
arXiv – cs.AI
•
Große Sprachmodelle lernen Belohnungs-Hacking: Risiko von Missalignment
arXiv – cs.AI
•
RLoop: Selbstverbesserndes RL-Framework steigert Generalisierung um 15 %
arXiv – cs.LG
•
Shorter but not Worse: Frugal Reasoning via Easy Samples as Length Regularizers in Math RLVR
arXiv – cs.AI
•
Fine-tuning Large Language Models with Limited Data: A Survey and Practical Guide
arXiv – cs.LG
•
Verifizierbare Belohnungen im RL: Wie Rauschen Lernen oder Scheitern lässt