Kleines Modell, Logik: VibeThinker-1.5B beweist, dass Größe nicht alles ist
Mit dem 1,5‑Billionen‑Parameter‑Modell VibeThinker-1.5B stellt das Forschungsteam eine klare Gegenposition zur weit verbreiteten Annahme auf, dass nur große Modelle wirklich komplexe Denkaufgaben bewältigen können. Durch die Anwendung des Spectrum‑to‑Signal‑Principles (SSP) wird die Leistungsfähigkeit eines kompakt aufgebauten Modells auf ein neues Niveau gehoben.
Der SSP‑Ansatz kombiniert zunächst eine Two‑Stage Diversity‑Exploring Distillation (SFT), die ein breites Spektrum möglicher Lösungen generiert, mit einer MaxEnt‑Guided Policy Optimization (RL), die das korrekte Signal verstärkt. Trotz eines Trainingsbudgets von lediglich 7.800 US‑Dollar zeigt VibeThinker-1.5B eine bemerkenswerte Effizienz und liefert Ergebnisse, die mit denen von hochpreisigen, weit größeren Modellen vergleichbar sind.
In drei renommierten Mathematik‑Benchmarks übertrifft VibeThinker-1.5B sogar das 400‑fach größere DeepSeek R1: AIME24 (80,3 vs. 79,8), AIME25 (74,4 vs. 70,0) und HMMT25 (50,4 vs. 41,7). Auf dem LiveCodeBench V6 erzielt es 51,1 Punkte, deutlich besser als Magistral Medium (50,3) und das Basis‑Modell (0,0). Gleichzeitig steht es auf Augenhöhe mit Open‑Source‑Modellen wie GPT OSS‑20B Medium und übertrifft geschlossene Modelle wie Magistral Medium und Claude Opus 4.
Diese Ergebnisse zeigen eindeutig, dass kleine Modelle mit gezielter Optimierung die gleiche, wenn nicht sogar bessere, Denkfähigkeit wie ihre riesigen Gegenstücke erreichen können. Das bedeutet nicht nur geringere Trainings- und Inferenzkosten, sondern auch eine Demokratisierung des Zugangs zu fortschrittlicher KI‑Forschung, da weniger Ressourcen für die Entwicklung leistungsfähiger Modelle erforderlich sind.