SigMA: Deep-Learning-Methode verbessert Parametererkennung bei fBm-SDEs
Stochastische Differentialgleichungen, die von fractional Brownian Motion (fBm) getrieben werden, modellieren zunehmend Systeme mit rauen Dynamiken und langfristiger Abhängigkeit – etwa in der Finanzmathematik oder der Zuverlässigkeitsanalyse. Ihre Nicht-Markovianität und das Fehlen einer Semimartingalstruktur machen klassische Schätzverfahren unbrauchbar oder extrem rechenintensiv.
Die vorliegende Arbeit stellt zwei zentrale Fragen: Erstens, ob die Einbindung von Pfad-Signaturen in neuronale Architekturen die Balance zwischen Schätzgenauigkeit und Modellkomplexität verbessern kann; zweitens, welche Architektur am besten geeignet ist, Signaturen als Feature‑Maps zu nutzen.
Antworten liefert SigMA (Signature Multi‑head Attention), ein Deep‑Learning‑Modell, das Pfad‑Signaturen mit Multi‑Head‑Self‑Attention kombiniert. Zusätzlich nutzt es eine konvolutionale Vorverarbeitungsschicht und einen mehrschichtigen Perzeptron-Encoder, um die Signaturen effektiv zu kodieren.
SigMA lernt die Modellparameter aus synthetisch generierten Pfaden fBm‑getriebener SDEs – darunter fBm, fractional Ornstein‑Uhlenbeck und das rough Heston‑Modell. Der Fokus liegt auf der Schätzung des Hurst‑Parameters sowie auf der gleichzeitigen Inferenz mehrerer Parameter. Das Modell generalisiert robust auf zuvor nicht gesehenen Trajektorien.
Umfangreiche Experimente an synthetischen Daten sowie an zwei realen Datensätzen – der realisierten Volatilität von Aktienindizes und der Degradation von Li‑Ion‑Batterien – zeigen, dass SigMA konsequent CNNs, LSTMs, herkömmliche Transformer und Deep‑Signature‑Modelle übertrifft.
Damit bietet SigMA einen leistungsfähigen, effizienten Ansatz für die Parametererkennung in komplexen, nicht‑Markovianen stochastischen Modellen und eröffnet neue Möglichkeiten für die Analyse von Systemen mit rauen Dynamiken.