PCL-Reasoner-V1.5: Fortschritt im mathematischen Denken mit Offline RL

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die neueste Version des PCL-Reasoner, ein 32‑Billionen‑Parameter‑LLM, setzt neue Maßstäbe im mathematischen Problemlösen. Basierend auf dem Qwen2.5‑32B‑Modell wird es zunächst durch gezieltes Supervised Fine‑Tuning (SFT) geschärft und anschließend mit Reinforcement Learning (RL) weiterentwickelt.

Der entscheidende Durchbruch liegt in der Einführung eines Offline‑RL‑Ansatzes, der die Trainingsstabilität und Effizienz deutlich verbessert – ein klarer Vorteil gegenüber herkömmlichen Online‑RL‑Methoden wie GRPO. Durch die Nutzung bereits vorhandener Daten kann das Modell schneller und sicherer lernen, ohne die Risiken und Kosten von Online‑Interaktionen.

Die Ergebnisse sprechen für sich: Auf den AIME‑Wettbewerben 2024 und 2025 erzielt PCL-Reasoner-V1.5 durchschnittliche Genauigkeiten von 90,9 % bzw. 85,6 %, was die bisher beste Leistung unter Modellen auf Basis von Qwen2.5‑32B darstellt. Alle Experimente wurden auf Huawei Ascend 910C NPUs durchgeführt, was die Skalierbarkeit und Leistungsfähigkeit der Plattform unterstreicht.

Ähnliche Artikel