Stabiler Optimizer: Momentum‑basierte NGN‑Schrittgröße verbessert Hyperparameter‑Robustheit
In der heutigen KI‑Forschung sind Optimierungsalgorithmen, die Momentum und adaptive Schrittgrößen kombinieren, ein entscheidender Erfolgsfaktor. Ihre Leistung hängt jedoch stark von der Wahl der Hyperparameter ab – insbesondere der Schrittgröße. Das Feintuning dieser Parameter ist oft aufwendig, ressourcenintensiv und zeitaufwendig.