Zwei-Stufen-Lernmodell verbessert Vorhersagen in dynamischen Systemen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Studie wird ein zweistufiges Lernframework vorgestellt, das Offline‑ und Online‑Lernmethoden kombiniert, um die Vorhersagegenauigkeit bei nichtlinearen stochastischen Dynamiksystemen zu erhöhen. Der Ansatz berücksichtigt die häufigen Herausforderungen von stark korrelierten Daten und sich verändernden Verteilungen, die in realen Intelligenzsystemen auftreten.

Im Offline‑Lernschritt liefert die Arbeit einen theoretischen Obergrenzwert für den Generalisierungsfehler bei annähernder nichtlinearer Least‑Squares‑Schätzung. Dabei wird die Kullback‑Leibler‑Divergenz eingesetzt, um Unterschiede in den Datenverteilungen zu quantifizieren und so die Auswirkungen von Korrelations- und Verteilungsverschiebungen zu adressieren.

Der Online‑Adaptationsschritt baut auf dem offline trainierten Modell auf und führt einen Meta‑LMS‑Algorithmus ein, der Unsicherheiten in der Parameterentwicklung realer Zielsysteme berücksichtigt. Dieser Algorithmus ermöglicht eine kontinuierliche Anpassung, ohne dass das Modell komplett neu trainiert werden muss.

Die Kombination beider Phasen führt laut den Autoren zu deutlich besseren Vorhersageergebnissen als bei ausschließlich Offline‑ oder Online‑Methoden. Sowohl theoretische Beweise als auch experimentelle Ergebnisse untermauern die Wirksamkeit des vorgeschlagenen Ansatzes.

Ähnliche Artikel