Neue Optimierer IAGD und NRSGD beschleunigen Gradient Descent
Ein neuer Beitrag auf arXiv (2510.13040v1) stellt zwei innovative Optimierer vor, die das klassische Stochastic Gradient Descent (SGD) deutlich verbessern. Der Interpolational Accelerating Gradient Descent (IAGD) nutzt…