Microsoft präsentiert Maia 200: KI-Accelerator für Azure‑Datencenter
Microsoft hat den Maia 200 vorgestellt, einen eigenen KI‑Accelerator, der speziell für die Inferenz in Azure‑Datencentern entwickelt wurde. Durch die Kombination von FP4/FP8‑Berechnungen, einer dichten On‑Chip‑Speicherhierarchie und einem Ethernet‑basierten Skalierungs‑Fabric soll die Kosten für die Token‑Generierung bei großen Sprachmodellen und anderen Rechenaufgaben deutlich gesenkt werden.
Der Maia 200 nutzt eine sehr enge Präzision, um Rechenleistung zu maximieren, während die On‑Chip‑Speicherstruktur dafür sorgt, dass Daten schnell und effizient verarbeitet werden können. Das Ethernet‑Netzwerk ermöglicht es, mehrere Chips nahtlos zu verbinden und so die Rechenkapazität in großem Maßstab zu erhöhen.
Microsoft setzt mit dem Maia 200 auf eine dedizierte Inferenz‑Hardware, um die Leistungsfähigkeit von Azure‑KI‑Diensten zu steigern und gleichzeitig die Betriebskosten zu senken. Der neue Chip soll die Grundlage für die nächste Generation von KI‑Anwendungen bilden, die auf Azure laufen.