Neue Belohnungsmodelle reduzieren Überdenken bei Sprachmodellen
Reinforcement‑Learning‑With‑Verifiable‑Rewards (RLVR) hat gezeigt, dass große Sprachmodelle (LLMs) ihre Fähigkeit zum logischen Denken deutlich steigern können. In der Praxis führen die daraus resultierenden großen Reasoning Models (LRMs) jedoch häufig zu übermäßig langen Antworten, die unnötige oder redundante Zwischenschritte enthalten – ein Phänomen, das als „Overthinking“ bezeichnet wird und die Rechenkosten stark erhöht.