OpenAI stellt leistungsstarke Open-Weight-Modelle unter Apache 2.0 vor

Simon Willison – Blog Original ≈1 Min. Lesezeit
Anzeige

OpenAI hat endlich die seit langem erwarteten Open-Weight-Modelle veröffentlicht. Unter der Open-Source-Lizenz Apache 2.0 stehen zwei Varianten zur Verfügung: ein 120‑Billionen‑Parameter‑Modell und ein 20‑Billionen‑Parameter‑Modell.

Das 120‑Billionen‑Modell erreicht nahezu die gleiche Leistung wie das proprietäre o4‑Mini bei Kern‑Reasoning‑Benchmarks und läuft dabei effizient auf einer einzigen 80‑GB‑GPU. Das 20‑Billionen‑Modell liefert vergleichbare Ergebnisse wie das o3‑Mini und kann sogar auf Edge‑Geräten mit nur 16 GB RAM betrieben werden, was es besonders attraktiv für On‑Device‑Anwendungen und lokale Inferenz macht.

Beide Modelle setzen auf die Mixture‑of‑Experts‑Architektur: Das 120‑Billionen‑Modell aktiviert pro Token 5,1 Billionen Parameter, während das 20‑Billionen‑Modell 3,6 Billionen aktiviert. Insgesamt besitzen die Modelle 117 Billionen bzw. 21 Billionen Parameter.

Besonders beeindruckend sind die Ergebnisse bei allgemeinen Wissensprüfungen. Auf dem GPQA‑Diamond‑Benchmark erzielt das 120‑Billionen‑Modell 80,1 % und das 20‑Billionen‑Modell 71,5 %, was nahe an den Leistungen der proprietären Modelle liegt.

Für Entwickler bedeutet dies, dass das 20‑Billionen‑Modell problemlos auf einem Mac mit 32 GB RAM ausgeführt werden kann. Es eignet sich ideal für lokale Inferenz, schnelle Iterationen und Anwendungen, bei denen keine teure Infrastruktur erforderlich ist.

Ähnliche Artikel