Kostenlose Gruppendurchschnittung steigert Genauigkeit physikalischer ML-Modelle

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Viele maschinelle Lernaufgaben in den Naturwissenschaften sind exakt symmetrie‑equivariant. Trotzdem werden equivariant‑Methoden selten eingesetzt, weil Training als schwierig gilt oder die Symmetrie als lernbar angesehen wird. Die Gruppendurchschnittung bietet hier eine einfache Lösung: Sie wird ausschließlich im Testzeitpunkt angewendet, macht jedes bereits trainierte Modell exakt symmetrie‑equivariant und kostet nur einen kleinen Aufwand, der proportional zur Gruppengröße ist. Dabei sind weder spezielle Modellstrukturen noch zusätzliche Trainingsschritte nötig.

Unter milden Voraussetzungen ist nachgewiesen, dass das gruppendurchschnittete Modell eine bessere Vorhersagegenauigkeit liefert als das ursprüngliche Modell. In dieser Arbeit wird gezeigt, dass diese theoretische Verbesserung auch praktisch greifbar ist. Dazu wurden etablierte Benchmark‑Modelle für Differentialgleichungen – die bestimmte Symmetrien erfüllen sollten – evaluiert. Durch das Durchschnitte über eine kleine Symmetriegruppe wurde die durchschnittliche Evaluationsverluste stets reduziert, mit Verbesserungen von bis zu 37 % in Bezug auf die VRMSE.

Die Ergebnisse zeigen nicht nur eine quantitative Steigerung, sondern führen auch zu visuell ansprechenderen Vorhersagen bei kontinuierlichen Dynamiken. Somit gibt es unter den häufigsten Einsatzbedingungen keine Nachteile, wenn man exakte Symmetrien erzwingt. Die ML4PS‑Community sollte die Gruppendurchschnittung als kostengünstige und unkomplizierte Methode in Betracht ziehen, um die Genauigkeit ihrer Modelle zu erhöhen.

Ähnliche Artikel