LLM-Training neu: Selbstkorrigierende, lange Denkketten steigern Matheleistung
In den letzten Jahren haben große Sprachmodelle (LLMs) beeindruckende Fortschritte bei komplexen Denkaufgaben gezeigt, insbesondere bei mathematischen Problemen. Bisher konzentrierte sich die Forschung überwiegend auf Reinforcement‑Learning‑Ansätze und vernachlässigte dabei die Möglichkeiten des supervised fine‑tuning (SFT). Das neue Verfahren, vorgestellt in der Arbeit „Dual‑Phase LLM Reasoning“, kombiniert beide Ansätze zu einem leistungsstarken, zweistufigen Trainingsframework.