Forschung arXiv – cs.LG

Neues Skalierungsparadigma: Input Time Scaling verbessert LLM-Leistung

In der Welt der großen Sprachmodelle (LLMs) wird bislang viel Wert auf die sorgfältige Auswahl von Trainingsdaten und auf die Optimierung der Inferenzzeit gelegt. Das neue Konzept „Input Time Scaling“ richtet den Fokus…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Welt der großen Sprachmodelle (LLMs) wird bislang viel Wert auf die sorgfältige Auswahl von Trainingsdaten und auf die Optimierung der Inferenzzeit gelegt.
  • Das neue Konzept „Input Time Scaling“ richtet den Fokus jedoch auf die Abfrage selbst und verteilt Ressourcen auf die Eingaben, um die Leistung zu steigern.
  • Die Autoren kombinieren während Training und Testen Meta-Wissen aus LLMs, um die Eingaben mit unterschiedlichen Strategien zu verfeinern.

In der Welt der großen Sprachmodelle (LLMs) wird bislang viel Wert auf die sorgfältige Auswahl von Trainingsdaten und auf die Optimierung der Inferenzzeit gelegt. Das neue Konzept „Input Time Scaling“ richtet den Fokus jedoch auf die Abfrage selbst und verteilt Ressourcen auf die Eingaben, um die Leistung zu steigern.

Die Autoren kombinieren während Training und Testen Meta-Wissen aus LLMs, um die Eingaben mit unterschiedlichen Strategien zu verfeinern. Sie zeigen, dass ein gemeinsames Design von Training und Test – also die Anwendung der Strategien in beiden Phasen – entscheidend ist. Wenn die Strategien nur im Training oder nur im Test eingesetzt werden, verschlechtert sich die Leistung erheblich.

Ein überraschendes Ergebnis ist, dass Datensätze mit scheinbar niedriger Qualität – zum Beispiel durch zufällige Auswahl von Beispielen aus kaum gefilterten Daten – die besten Ergebnisse liefern. Das widerspricht dem üblichen „Garbage‑in, Garbage‑out“-Prinzip. Auch das Hinzufügen irrelevanter Informationen kann die Leistung verbessern. Diese Erkenntnisse deuten darauf hin, dass die sorgfältige Kuratierung von Daten die Leistungsgrenze möglicherweise einschränkt und dass mehr Daten nicht zwangsläufig besser sind.

Die Ergebnisse passen zum „Less is More“-Phänomen: Mit einer kleinen Auswahl an Beispielen lassen sich hochgradige Denkfähigkeiten aktivieren. In Experimenten mit dem Modell Qwen2.5‑32B‑Instruct erreichte die Methode den aktuellen Spitzenwert bei den Wettbewerben AIME24 (76,7 %) und AIME25, was die Wirksamkeit von Input Time Scaling unterstreicht.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.

Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.

Welches konkrete Problem loest das Modell besser als bisher?
Was bedeutet die Neuerung fuer Geschwindigkeit, Kosten oder Zuverlaessigkeit?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLMs
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Input Time Scaling
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Training- und Testdesign
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen