Forschung arXiv – cs.LG

Kontamination in Sprachmodellen: Wie Post‑Training die Leistung beeinflusst

In einer neuen Studie von arXiv 2601.06103v1 wird untersucht, wie sich Datenkontamination auf die gängigen Post‑Training‑Schritte großer Sprachmodelle auswirkt. Dabei wurden die Modelle Qwen2.5 (0,5 B/1,5 B) und Gemma3…

≈2 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In einer neuen Studie von arXiv 2601.06103v1 wird untersucht, wie sich Datenkontamination auf die gängigen Post‑Training‑Schritte großer Sprachmodelle auswirkt.
  • Dabei wurden die Modelle Qwen2.5 (0,5 B/1,5 B) und Gemma3 (1 B/4 B) zunächst sauber trainiert und anschließend fünf Kopien von GSM8K‑ und MBPP‑Testaufgaben in die ersten…
  • Die Kontamination wurde sowohl unmittelbar nach dem Pre‑Training als auch nach zwei populären Post‑Training‑Methoden verglichen: Supervised Fine‑Tuning (SFT) und Reinfor…

In einer neuen Studie von arXiv 2601.06103v1 wird untersucht, wie sich Datenkontamination auf die gängigen Post‑Training‑Schritte großer Sprachmodelle auswirkt. Dabei wurden die Modelle Qwen2.5 (0,5 B/1,5 B) und Gemma3 (1 B/4 B) zunächst sauber trainiert und anschließend fünf Kopien von GSM8K‑ und MBPP‑Testaufgaben in die ersten 2 B Token eines 25 B‑Token‑erweiterten Pre‑Training‑Datensatzes eingebracht.

Die Kontamination wurde sowohl unmittelbar nach dem Pre‑Training als auch nach zwei populären Post‑Training‑Methoden verglichen: Supervised Fine‑Tuning (SFT) und Reinforcement Learning (RL) mit Group Relative Policy Optimization (GRPO). Beide Post‑Training‑Schritte selbst enthielten keine Kontamination. Auf Mathematik‑ und Codierungsbenchmarks zeigten die Modelle drei konsistente Muster.

Erstens führt Kontamination zu kurzfristigen Leistungsanstiegen, die mit weiterem Pre‑Training allmählich zurückgehen – nach 25 B Token ist die Leistungsinflation nahezu verschwunden. Zweitens „resurrecten“ sowohl SFT als auch GRPO die ausgelöschten Informationen, jedoch mit unterschiedlicher Außenvalidität: SFT steigert die Scores nur bei den kontaminierten Aufgaben, während GRPO auch bei nicht kontaminierten Gegenstücken wie GSMPlus und HumanEval eine Leistungssteigerung auslöst. Drittens verstärkt die Modellgröße diese Effekte: Größere SFT‑Modelle merken mehr, während größere GRPO‑Modelle die Lecks in allgemeinere Fähigkeiten umwandeln.

Die Ergebnisse unterstreichen die Notwendigkeit von Kontaminationsprüfungen nach dem Post‑Training und deuten darauf hin, dass RL‑basierte Post‑Training‑Ansätze, obwohl nicht immun, dazu beitragen können, die durch Kontamination bedingten Leistungssteigerungen zu mildern.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Datenkontamination
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Post-Training
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Supervised Fine‑Tuning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen