Forschung
ZeroQAT: Quantisierung ohne Backpropagation – effizient und präzise
Die Quantisierung großer Sprachmodelle reduziert die Kosten für deren Einsatz erheblich. Während die nachträgliche Quantisierung (PTQ) wege…
arXiv – cs.LG