Autoregressive Modelle: Wie Chain‑of‑Thought die Stichprobengröße reduziert
Neues Forschungsergebnis aus dem arXiv‑Preprint „Stichprobenkomplexität der autoregressiven Argumentation: Kette‑von‑Denken vs. End‑zu‑End“ beleuchtet, wie viel Daten ein Sprachmodell benötigt, um aus einer autoregressi…
- Neues Forschungsergebnis aus dem arXiv‑Preprint „Stichprobenkomplexität der autoregressiven Argumentation: Kette‑von‑Denken vs.
- End‑zu‑End“ beleuchtet, wie viel Daten ein Sprachmodell benötigt, um aus einer autoregressiven Token‑Erzeugung zuverlässig zu lernen.
- (COLT 2025) haben dafür ein PAC‑Lern-Framework entwickelt, das die Lernaufgabe eines unbekannten Nächster-Token‑Generators formalisiert.
Neues Forschungsergebnis aus dem arXiv‑Preprint „Stichprobenkomplexität der autoregressiven Argumentation: Kette‑von‑Denken vs. End‑zu‑End“ beleuchtet, wie viel Daten ein Sprachmodell benötigt, um aus einer autoregressiven Token‑Erzeugung zuverlässig zu lernen. Die Autoren von Joshi et al. (COLT 2025) haben dafür ein PAC‑Lern-Framework entwickelt, das die Lernaufgabe eines unbekannten Nächster-Token‑Generators formalisiert.
Im Modell wird ein Token‑Generator iterativ für T Schritte angewendet, wobei jedes Mal ein neuer Token erzeugt wird. Das Endergebnis ist der letzte Token der Kette. Die Herausforderung besteht darin, die Eingabe‑Ausgabe‑Abbildung dieses Prozesses zu erlernen. Dabei gibt es zwei Supervisionsformen: End‑zu‑End, bei dem nur das finale Ergebnis sichtbar ist, und Kette‑von‑Denken, bei dem die gesamte Token‑Kette beobachtet wird.
Die Studie liefert eine nahezu vollständige Antwort auf die Frage, wie die Stichprobengröße mit der Kettenlänge T zusammenhängt. Für End‑zu‑End‑Lernen kann die Stichprobenkomplexität beliebige Wachstumsraten zwischen konstant und linear annehmen – unter milden Bedingungen. Im Gegensatz dazu bleibt die Stichprobenkomplexität bei Kette‑von‑Denken‑Supervision unabhängig von T, was bedeutet, dass das Einsehen der Zwischenschritte die Datenanforderung drastisch senkt.
Diese Erkenntnisse zeigen, dass die Bereitstellung von Zwischenschritten im Lernprozess die Lernleistung verbessert, indem sie die Notwendigkeit für große Datenmengen reduziert.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.