Nvidia präsentiert Rubin CPX: GPU für lange Kontext‑AI ohne teure HBM
Anzeige
Nvidia hat am Dienstag die Rubin CPX vorgestellt, eine neue Grafikprozessor‑Architektur, die speziell für AI‑Workflows mit extrem langen Kontexten entwickelt wurde. Ziel ist es, Anwendungen wie Code‑Assistenten – etwa Microsofts GitHub Copilot – schneller zu machen, ohne dabei auf die teure und energieintensive High‑Bandwidth‑Memory‑Technologie (HBM) zurückgreifen zu müssen. Durch die Optimierung des Speicherzugriffs und die Reduktion von HBM kann die Rubin CPX die Leistungsfähigkeit erhöhen und gleichzeitig den Stromverbrauch senken, was sie zu einer vielversprechenden Lösung für die nächste Generation von KI‑Anwendungen macht.
Ähnliche Artikel
NVIDIA – Blog
•
NVIDIA & Mistral AI: Open-Source-Modelle für Multilingualität & Multimodalität
SemiAnalysis
•
Nvidia präsentiert Rubin CPX: Revolutionärer Accelerator für KI‑Inferenz
NVIDIA – Blog
•
NVIDIA übernimmt Open-Source-Workload-Manager SchedMD
The Register – Headlines
•
Hyperscaler treiben Serverausgaben im Q3 2025 auf Rekordniveau von 112,4 Mrd. USD
ZDNet – Artificial Intelligence
•
Nvidia nutzt Meta's Rückzug, um Transparenz bei Nemotron 3 zu stärken
Wired – AI (Latest)
•
Nvidia wird mit Nemotron 3 zu einem führenden Modellhersteller