<h1>Spurious Rewards Paradox: RLVR lässt LLMs auf Kurzschluss zurückgreifen</h1> <p>Reinforcement Learning with Verifiable Rewards (RLVR) gilt als leistungsstarkes Verfahren zur Verbesserung der Argumentationsfähigkeit großer Sprachmodelle. Neueste Untersuchungen zeigen jedoch, dass Modelle wie Qwen 2.5 erhebliche Leistungssteigerungen erzielen, selbst wenn die Belohnungen falsch oder irreführend sind.</p> <p>Die Autoren beschreiben ein „Perplexity Paradox“, bei dem die Perplexität der Antwort‑Tokens sinkt,

arXiv – cs.LG Original
Anzeige