BayesQ: Bayesian-Quantisierung Unsicherheitsorientierung optimiert Post-Training
Mit dem neuen Framework BayesQ wird die Post‑Training‑Quantisierung von neuronalen Netzen auf ein völlig neues Niveau gehoben. BayesQ nutzt eine leichtgewichtige Gaußsche Posteriorverteilung über die Gewichte – standardmäßig eine diagonale Laplace‑Approximation, optional erweitert um K‑FAC oder Low‑Rank‑Methoden – und wendet eine Whitening‑Transformation an, die die Posterior‑Kovarianz berücksichtigt. Dadurch kann das Modell die Unsicherheit in jedem Gewicht exakt erfassen und in die Quantisierung einfließen lassen.