Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “QAT”
Praxis

<p>TorchAO erweitert Quantization‑Aware Training für Edge‑LLMs</p> <p>In unserem letzten Blog‑Post haben wir den ersten Quantization‑Aware Training‑Flow (QAT) in TorchAO vorgestellt, der große Sprachmodelle für Edge‑Geräte mit ExecuTorch optimiert. Dieser Ansatz ermöglicht es, Modelle auf kleineren Plattformen einzusetzen, ohne dabei die Genauigkeit zu stark zu beeinträchtigen.</p> <p>Seitdem haben wir den Flow weiterentwickelt und zusätzliche Optimierungen integriert. Die neue Version unterstützt nun erwei

PyTorch – Blog
Forschung

<h1>1-Bit Wunder: K-Means Quantisierung steigert QAT-Leistung bei LLMs</h1> <p>Eine neue Studie aus dem arXiv-Repository zeigt, dass Quantization‑Aware Training (QAT) die Speicher‑ und Rechenkosten von großen Sprachmodellen drastisch senken kann, ohne die Leistung zu stark zu beeinträchtigen. Durch gezielte Experimente im Low‑Bit‑Bereich wird deutlich, wie sich unterschiedliche Quantisierungsformate auf die Effizienz und Genauigkeit auswirken.</p> <p>Traditionell bleibt die Wahl des optimalen Quantisierungs

arXiv – cs.LG