Meta-Lernen für strukturbeibehaltende Dynamikmodelle

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Strukturbeibehaltende Ansätze zur Modellierung von Dynamiken haben sich als äußerst vielversprechend erwiesen, weil sie durch starke induktive Voreinstellungen physikalische Gesetze wie Energieerhaltung und Dissipation automatisch einhalten. In der Praxis werden diese Modelle jedoch meist für eine feste Systemkonfiguration trainiert, was die Kenntnis aller Systemparameter erfordert und bei jeder Parameteränderung ein aufwändiges Neutrainieren nötig macht.

Meta‑Learning bietet hier einen Weg, die Abhängigkeit von festen Parametern zu umgehen. Traditionelle, optimierungsbasierte Meta‑Learning‑Methoden stoßen jedoch häufig an Grenzen – sei es durch Trainingsinstabilität oder eingeschränkte Generalisierungsfähigkeit. Inspiriert von Techniken aus der Computer‑Vision haben wir ein modulationsbasiertes Meta‑Learning‑Framework entwickelt, das strukturbeibehaltende Modelle direkt an kompakte latente Repräsentationen möglicher, unbekannter Systemparameter bindet.

Durch gezielte Modulationsstrategien für parametrisierte, energie‑erhaltende und dissipative Systeme ermöglicht unser Ansatz ein skalierbares und generalisierbares Lernen über ganze parametergesteuerte Systemfamilien hinweg. In Experimenten an Standard‑Benchmarks zeigte sich, dass die Methode in wenigen Trainingsschritten präzise Vorhersagen liefert, ohne die wesentlichen physikalischen Einschränkungen zu verletzen, und dabei eine robuste Generalisierung über den Parameterraum hinweg erreicht.

Ähnliche Artikel