Neue Methode komprimiert große Sprachmodelle mit niedriger Bitzahl
Ein neues Verfahren namens Grouped Lattice Vector Quantization (GLVQ) verspricht, die Speicher- und Rechenanforderungen großer Sprachmodelle drastisch zu senken, ohne die Genauigkeit zu stark zu beeinträchtigen. Durch d…