Neuer Ansatz: Einheitlich konsistente Adjoint-Methoden für Deep Learning
In der Welt der tiefen neuronalen Netze, die aus linearen Transformationen und positiv homogenen Nichtlinearitäten wie ReLU bestehen, gilt eine fundamentale Symmetrie: die Netzfunktion bleibt unverändert, wenn die Parameter an jedem Knotenpunkt diagonal skaliert werden. Diese Eigenschaft, die als Gauge‑Symmetrie bezeichnet wird, wird jedoch von herkömmlichen Gradientenabstiegsverfahren nicht berücksichtigt, was dazu führt, dass Optimierungswege stark von willkürlichen Parametrierungen abhängen.