SofT-GRPO: Soft-Thinking-LLMs übertreffen klassische Token-basierte RL-Methoden
Ein neuer Ansatz namens SofT-GRPO hat die Forschung im Bereich der großen Sprachmodelle (LLMs) vorangetrieben, indem er das Soft-Thinking-Paradigma mit Reinforcement Learning (RL) kombiniert. Soft-Thinking ermöglicht es Modellen, über kontinuierliche Wahrscheinlichkeiten statt über diskrete Token zu denken, was in bestimmten Szenarien zu besseren Ergebnissen führen kann.