Tree-OPO: Off-policy Monte Carlo Tree-Guided Advantage Optimization for Multistep Reasoning
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
ESPO: Entropy Importance Sampling Policy beschleunigt LLM-Fine-Tuning
arXiv – cs.AI
•
Agentisches RL lernt SPARQL-Abfragen schrittweise zu verbessern
arXiv – cs.LG
•
Angriff auf dezentrale GRPO: Wie böswillige Token LLMs kompromittieren
arXiv – cs.AI
•
GRAPH‑GRPO‑LEX: Automatisierte Vertragsanalyse mit Graphen & RL
arXiv – cs.AI
•
Gefahr der Präferenz: Warum GRPO bei ordinalen Belohnungen scheitert
arXiv – cs.AI
•
Local Coherence or Global Validity? Investigating RLVR Traces in Math Domains