Forschung arXiv – cs.LG

Autoregressive Modelle: Wie Chain‑of‑Thought die Stichprobengröße reduziert

Neues Forschungsergebnis aus dem arXiv‑Preprint „Stichprobenkomplexität der autoregressiven Argumentation: Kette‑von‑Denken vs. End‑zu‑End“ beleuchtet, wie viel Daten ein Sprachmodell benötigt, um aus einer autoregressi…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Neues Forschungsergebnis aus dem arXiv‑Preprint „Stichprobenkomplexität der autoregressiven Argumentation: Kette‑von‑Denken vs.
  • End‑zu‑End“ beleuchtet, wie viel Daten ein Sprachmodell benötigt, um aus einer autoregressiven Token‑Erzeugung zuverlässig zu lernen.
  • (COLT 2025) haben dafür ein PAC‑Lern-Framework entwickelt, das die Lernaufgabe eines unbekannten Nächster-Token‑Generators formalisiert.

Neues Forschungsergebnis aus dem arXiv‑Preprint „Stichprobenkomplexität der autoregressiven Argumentation: Kette‑von‑Denken vs. End‑zu‑End“ beleuchtet, wie viel Daten ein Sprachmodell benötigt, um aus einer autoregressiven Token‑Erzeugung zuverlässig zu lernen. Die Autoren von Joshi et al. (COLT 2025) haben dafür ein PAC‑Lern-Framework entwickelt, das die Lernaufgabe eines unbekannten Nächster-Token‑Generators formalisiert.

Im Modell wird ein Token‑Generator iterativ für T Schritte angewendet, wobei jedes Mal ein neuer Token erzeugt wird. Das Endergebnis ist der letzte Token der Kette. Die Herausforderung besteht darin, die Eingabe‑Ausgabe‑Abbildung dieses Prozesses zu erlernen. Dabei gibt es zwei Supervisionsformen: End‑zu‑End, bei dem nur das finale Ergebnis sichtbar ist, und Kette‑von‑Denken, bei dem die gesamte Token‑Kette beobachtet wird.

Die Studie liefert eine nahezu vollständige Antwort auf die Frage, wie die Stichprobengröße mit der Kettenlänge T zusammenhängt. Für End‑zu‑End‑Lernen kann die Stichprobenkomplexität beliebige Wachstumsraten zwischen konstant und linear annehmen – unter milden Bedingungen. Im Gegensatz dazu bleibt die Stichprobenkomplexität bei Kette‑von‑Denken‑Supervision unabhängig von T, was bedeutet, dass das Einsehen der Zwischenschritte die Datenanforderung drastisch senkt.

Diese Erkenntnisse zeigen, dass die Bereitstellung von Zwischen­schritten im Lernprozess die Lernleistung verbessert, indem sie die Notwendigkeit für große Datenmengen reduziert.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Stichprobenkomplexität
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
autoregressiver Token-Generator
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Kette-von-Denken
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen