NeuraLSP: Neuronaler Präconditioner beschleunigt CG-Methoden um bis zu 53 %

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der numerischen Lösung von partiellen Differentialgleichungen (PDEs) spielt die effiziente Behandlung großer, spärlicher linearer Systeme eine zentrale Rolle. Vor allem die Wahl des Präconditioners entscheidet über die Konvergenzgeschwindigkeit der Konjugierten-Gradienten-Methode. Neueste Entwicklungen im Bereich neuronaler Netzwerke, insbesondere Graph Neural Networks (GNNs), haben gezeigt, dass sich die Konvergenz durch gezielte Lernstrategien deutlich beschleunigen lässt.

Der neue Ansatz NeuraLSP kombiniert einen neuronalen Präconditioner mit einer innovativen Verlustfunktion, die die linke Singulärsubspace‑Struktur der Systemmatrix nutzt. Durch die Kompression der spektralen Informationen in einen festen, niedrigen Rangoperator bleibt die Methode robust gegenüber Ranginflation und liefert theoretische Garantien für die Konvergenz. In umfangreichen Experimenten über verschiedene PDE-Familien hinweg konnte ein bis zu 53 %iger Geschwindigkeitsgewinn erzielt werden.

Die Ergebnisse zeigen, dass NeuraLSP nicht nur theoretisch fundiert ist, sondern auch praktisch in einer Vielzahl von Anwendungsfällen die Leistung von klassischen Präconditionern übertrifft. Damit eröffnet die Methode neue Perspektiven für die schnelle und zuverlässige Lösung komplexer physikalischer Modelle.

Ähnliche Artikel