TTSR: Selbstreflexion im Testzeitraum für kontinuierliche Verbesserungen der Logik

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neues Verfahren namens TTSR (Test‑Time Self‑Reflection) ermöglicht es großen Sprachmodellen, ihre Rechenfähigkeiten während des Testens kontinuierlich zu verbessern, ohne zusätzliche Trainingsdaten.

Im Kern nutzt TTSR ein einzelnes vortrainiertes Modell, das sich im Testzeitraum zwischen den Rollen „Student“ und „Lehrer“ abwechseln lässt. Der Student löst Aufgaben und lernt aus synthetisch erzeugten Varianten, während der Lehrer die Fehler des Students analysiert, wiederkehrende Schwächen identifiziert und gezielt neue Varianten erstellt.

Durch diesen selbstreflektierenden, selbstentwickelnden Zyklus kann das Modell gezielt an seinen Schwachstellen arbeiten und dabei ein lernbares Regelwerk beibehalten. Experimente auf anspruchsvollen mathematischen Benchmark‑Sätzen zeigen, dass TTSR die Problemlösungsleistung deutlich steigert und sich über verschiedene Modellarchitekturen sowie allgemeine Rechenaufgaben hinweg gut generalisiert.

Die Ergebnisse deuten darauf hin, dass die lehrermediierte Selbstreflexion einen stabilen und nachhaltigen Weg für die kontinuierliche Verbesserung von Sprachmodellen im Testzeitraum bietet.

Ähnliche Artikel