Hybrid‑LS‑Gradient‑Descent‑Ansatz beschleunigt DeepONet‑Training

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Forscher haben einen neuen Hybrid‑Ansatz entwickelt, der die Trainingszeit von DeepONets drastisch reduziert. Durch die Kombination von Least‑Squares‑Optimierung für die letzten Layer‑Parameter des Branch‑Netzwerks und klassischem Gradient‑Descent für die übrigen versteckten Schichten wird die Rechenlast effizient verteilt.

Der Schlüssel liegt in der Aufteilung des ursprünglich riesigen Least‑Squares‑Systems in zwei überschaubare Teilprobleme – eines für das Branch‑Netzwerk und ein weiteres für das Trunk‑Netzwerk. Diese beiden Subsysteme können separat gelöst werden, wodurch die Speicher‑ und Rechenkosten erheblich gesenkt werden, ohne die Genauigkeit zu beeinträchtigen.

Darüber hinaus ist die Methode flexibel: Sie lässt sich auf allgemeine L²‑Verluste mit Regularisierung der letzten Layer‑Parameter anwenden und unterstützt sogar unsupervised Lernaufgaben mit physik‑informierten Verlustfunktionen. Damit eröffnet der Ansatz neue Möglichkeiten für die schnelle und robuste Entwicklung von DeepONets in der Praxis.