YuanLab AI präsentiert Yuan 3.0 Ultra: 1 T Parameter, 33 % weniger, 49 % effizienter
YuanLab AI hat heute sein neuestes Open‑Source-Modell Yuan 3.0 Ultra vorgestellt. Das multimodale Mixture‑of‑Experts (MoE) Foundation Model erreicht mit insgesamt 1 Billionen Parametern und 68,8 Billionen aktivierten Parametern eine beeindruckende Leistungsstufe, während die Gesamtzahl der Parameter um 33,3 % reduziert wurde.
Durch die innovative MoE‑Architektur kann Yuan 3.0 Ultra gezielt Experten aktivieren, die für spezifische Aufgaben optimiert sind. Diese gezielte Aktivierung führt zu einer 49 %igen Steigerung der Pre‑Training‑Effizienz, ohne die Qualität der Ergebnisse zu beeinträchtigen. Das Modell ist darauf ausgelegt, sowohl Text- als auch Bilddaten zu verarbeiten und damit eine umfassende, multimodale Intelligenz zu bieten.
Die Kombination aus hoher Parameterzahl, gezielter Aktivierung und effizientem Training macht Yuan 3.0 Ultra zu einer starken Wahl für Unternehmen, die nach leistungsfähigen, aber ressourcenschonenden KI-Lösungen suchen. Die Open‑Source-Natur des Modells ermöglicht es Forschern und Entwicklern, die Technologie anzupassen und weiterzuentwickeln.
Yuan 3.0 Ultra ist ab sofort unter der Open‑Source-Lizenz verfügbar. Interessierte können das Modell und die zugehörigen Ressourcen direkt von der offiziellen YuanLab AI-Website herunterladen und in ihre Projekte integrieren.