Kurvenbasierte Adaptive Rekursion beschleunigt Training von Tiny Recursive Modellen
Recursive‑Reasoning‑Modelle erreichen mit iterativer Verfeinerung beeindruckende Ergebnisse bei komplexen Aufgaben und ermöglichen es winzigen Netzwerken, die Leistung großer Sprachmodelle zu erreichen – obwohl sie tausendfach kleiner sind. Trotz dieser Vorteile bleibt das Training rechenintensiv: Frühere Studien berichteten etwa 36 GPU‑Stunden pro Datensatz, was die breite Nutzung stark einschränkt.