Neural‑Netzwerk‑Gewichte in FP8/FP4 verlustfrei komprimiert – bis zu 83 % Speicherersparnis
Mit dem stetigen Wachstum von Deep‑Learning‑Modellen und der zunehmenden Verbreitung von KI‑Anwendungen wird die Reduzierung von Speicher- und Übertragungskosten immer wichtiger. Ein neues Verfahren, das die erfolgreiche ZipNN‑Methode auf niedrigpräzise Fließkommaformate wie FP8 und FP4 ausweitet, zeigt, dass sogar diese kompakten Formate noch erheblich komprimiert werden können.