Ai2 präsentiert Olmo 3.1: Mehr Training, bessere Logik und Chat‑Fähigkeiten

VentureBeat – AI Original ≈1 Min. Lesezeit
Anzeige

Das Allen Institute for AI (Ai2) hat die neueste Version Olmo 3.1 vorgestellt, die auf dem bisherigen Olmo 3 aufbaut und durch ein verlängertes Reinforcement‑Learning deutlich leistungsfähiger ist.

Die neue Modellfamilie legt besonderen Wert auf Effizienz, Transparenz und Kontrolle für Unternehmen. Zwei Hauptvarianten wurden aktualisiert: Olmo 3.1 Think 32B für fortgeschrittene Forschung und Olmo 3.1 Instruct 32B für Befehlsbefolgung, mehrstufige Gespräche und Tool‑Nutzung.

Olmo 3.1 Think 32B wurde durch ein 21‑Tage‑Training auf 224 GPUs mit zusätzlichen Epochen über das Dolci‑Think‑RL‑Datenset verbessert. Das Ergebnis: signifikante Fortschritte bei Mathematik‑ und Logik‑Tests – +5 Punkte bei AIME, +4 bei ZebraLogic, +4 bei IFEval und +20 bei IFBench – sowie bessere Leistungen in Programmieraufgaben und komplexen Mehrschritt‑Aufgaben.

Für die Instruct‑Variante wurde die Erfolgsformel des kleineren 7B‑Modells auf die 32B‑Version übertragen. Olmo 3.1 Instruct 32B ist nun optimiert für Chat, Tool‑Integration und mehrstufige Dialoge und bietet damit eine deutlich leistungsfähigere Alternative zum Olmo 3 Instruct 7B.

Insgesamt zeigt Olmo 3.1, dass längere RL‑Trainingszyklen die Fähigkeiten von Sprachmodellen in Bereichen wie Logik, Mathematik und interaktiven Anwendungen weiter verbessern können.

Ähnliche Artikel