Automatisierte Lernraten: Erklärbare Regime für stochastische Optimierung
Moderne Machine‑Learning‑Modelle werden meist mit stochastischem Gradientenabstieg (SGD) trainiert. Dabei ist die Art und Weise, wie die Lernrate (LR) im Verlauf des Trainings angepasst wird, entscheidend für die Geschwindigkeit und Stabilität des Lernprozesses. Traditionelle LR‑Regime sind oft kompliziert oder erfordern das manuelle Einstellen zusätzlicher Hyperparameter, was in der Praxis zu hohem Rechenaufwand, Zeit- und Energieverbrauch führt.