Ihr nächstes „großes“ Sprachmodell ist vielleicht nicht so groß
Ein 27‑Millionen‑Parameter‑Modell hat jüngst die großen Konkurrenten DeepSeek R1, o3‑mini und Claude 3.7 bei Rechenaufgaben übertroffen. Trotz seiner geringen Größe liefert es beeindruckende Ergebnisse auf komplexen Logik‑ und Problemlösungsaufgaben, die bisher von deutlich größeren Modellen dominiert wurden.