Adaptive Stepsize für Langevin Dynamics in Bayesschen neuronalen Netzen
Bayessche neuronale Netze (BNNs) benötigen skalierbare Sampling‑Algorithmen, um die Posterior‑Verteilungen der Parameter zu approximieren. Traditionelle stochastische Gradient‑Markov‑Chain‑Monte‑Carlo‑Methoden (SGMCMC) sind jedoch stark von der Wahl des Stepsizes abhängig, und adaptive Varianten wie pSGLD liefern ohne einen aufwändigen Divergenz‑Korrekturterm oft keine korrekte invariant Measure.