Apriel-Nemotron 15B Thinker: 15 B Parameter, doppelt so effizient

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

ServiceNow hat mit dem Apriel‑Nemotron 15B Thinker ein neues 15‑Billionen‑Parameter‑Modell vorgestellt, das in der Lage ist, die Leistungen moderner, größerer Modelle wie o1‑mini, QWQ32B und EXAONE‑Deep‑32B zu erreichen – und das bei halb so großem Speicherbedarf.

Das Modell wurde in vier aufeinanderfolgenden Phasen trainiert: zunächst die Basis‑Model‑Upscaling‑Phase, gefolgt von kontinuierlichem Pre‑Training, anschließendem Supervised Fine‑Tuning (SFT) und schließlich Reinforcement Learning mit dem GRPO‑Algorithmus. Diese strukturierte Pipeline sorgt für robuste Lernfortschritte und eine effiziente Nutzung der Rechenressourcen.

Umfangreiche Benchmark‑Tests zeigen, dass der Apriel‑Nemotron 15B Thinker die Leistung seiner 32‑Billionen‑Parameter‑Gegenstücke nicht nur erreicht, sondern in vielen Fällen sogar übertrifft. Damit demonstriert das Modell, dass hohe Intelligenz nicht zwangsläufig mit enormen Speicher- und Rechenkosten verbunden sein muss.

Mit dieser Entwicklung setzt ServiceNow einen neuen Standard für leistungsfähige, ressourcenschonende Sprachmodelle in Unternehmensanwendungen und eröffnet damit neue Möglichkeiten für die Integration von KI in produktive Arbeitsabläufe.

Ähnliche Artikel