Praxis Simon Willison – Blog

OpenAI stellt leistungsstarke Open-Weight-Modelle unter Apache 2.0 vor

OpenAI hat endlich die seit langem erwarteten Open-Weight-Modelle veröffentlicht. Unter der Open-Source-Lizenz Apache 2.0 stehen zwei Varianten zur Verfügung: ein 120‑Billionen‑Parameter‑Modell und ein 20‑Billionen‑Para…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • OpenAI hat endlich die seit langem erwarteten Open-Weight-Modelle veröffentlicht.
  • Unter der Open-Source-Lizenz Apache 2.0 stehen zwei Varianten zur Verfügung: ein 120‑Billionen‑Parameter‑Modell und ein 20‑Billionen‑Parameter‑Modell.
  • Das 120‑Billionen‑Modell erreicht nahezu die gleiche Leistung wie das proprietäre o4‑Mini bei Kern‑Reasoning‑Benchmarks und läuft dabei effizient auf einer einzigen 80‑G…

OpenAI hat endlich die seit langem erwarteten Open-Weight-Modelle veröffentlicht. Unter der Open-Source-Lizenz Apache 2.0 stehen zwei Varianten zur Verfügung: ein 120‑Billionen‑Parameter‑Modell und ein 20‑Billionen‑Parameter‑Modell.

Das 120‑Billionen‑Modell erreicht nahezu die gleiche Leistung wie das proprietäre o4‑Mini bei Kern‑Reasoning‑Benchmarks und läuft dabei effizient auf einer einzigen 80‑GB‑GPU. Das 20‑Billionen‑Modell liefert vergleichbare Ergebnisse wie das o3‑Mini und kann sogar auf Edge‑Geräten mit nur 16 GB RAM betrieben werden, was es besonders attraktiv für On‑Device‑Anwendungen und lokale Inferenz macht.

Beide Modelle setzen auf die Mixture‑of‑Experts‑Architektur: Das 120‑Billionen‑Modell aktiviert pro Token 5,1 Billionen Parameter, während das 20‑Billionen‑Modell 3,6 Billionen aktiviert. Insgesamt besitzen die Modelle 117 Billionen bzw. 21 Billionen Parameter.

Besonders beeindruckend sind die Ergebnisse bei allgemeinen Wissensprüfungen. Auf dem GPQA‑Diamond‑Benchmark erzielt das 120‑Billionen‑Modell 80,1 % und das 20‑Billionen‑Modell 71,5 %, was nahe an den Leistungen der proprietären Modelle liegt.

Für Entwickler bedeutet dies, dass das 20‑Billionen‑Modell problemlos auf einem Mac mit 32 GB RAM ausgeführt werden kann. Es eignet sich ideal für lokale Inferenz, schnelle Iterationen und Anwendungen, bei denen keine teure Infrastruktur erforderlich ist.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

OpenAI ist einer der wichtigsten Taktgeber fuer KI-Produkte, Modellstarts und API-Oekosysteme.

Trenne bei OpenAI-News immer zwischen Modellleistung, Distribution ueber ChatGPT und den Folgen fuer Entwickler im API-Stack.

Ist das ein Forschungs-, API- oder ChatGPT-Update?
Wer profitiert davon zuerst: Endnutzer, Builder oder Unternehmen?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

OpenAI
OpenAI ist einer der wichtigsten Taktgeber fuer KI-Produkte, Modellstarts und API-Oekosysteme.
Open-Weight-Modelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Mixture-of-Experts
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Simon Willison – Blog
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen