Forschung arXiv – cs.LG

Brownian ReLU: Neue Aktivierungsfunktion verbessert LSTM bei Finanzdaten

In der Welt des Deep Learning stoßen herkömmliche Aktivierungsfunktionen wie ReLU, LeakyReLU und PReLU häufig auf Gradientinstabilitäten, wenn sie auf verrauschte, nicht stationäre Finanzzeitreihen angewendet werden. Ei…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Welt des Deep Learning stoßen herkömmliche Aktivierungsfunktionen wie ReLU, LeakyReLU und PReLU häufig auf Gradientinstabilitäten, wenn sie auf verrauschte, nicht…
  • Eine neue Methode, die Brownian ReLU (Br-ReLU), nutzt die Eigenschaften der Brownschen Bewegung, um diese Probleme zu überwinden.
  • Die Brownian ReLU ist eine stochastische Aktivierungsfunktion, die bei negativen Eingaben eine sanfte, adaptive Reaktion liefert.

In der Welt des Deep Learning stoßen herkömmliche Aktivierungsfunktionen wie ReLU, LeakyReLU und PReLU häufig auf Gradientinstabilitäten, wenn sie auf verrauschte, nicht stationäre Finanzzeitreihen angewendet werden. Eine neue Methode, die Brownian ReLU (Br-ReLU), nutzt die Eigenschaften der Brownschen Bewegung, um diese Probleme zu überwinden.

Die Brownian ReLU ist eine stochastische Aktivierungsfunktion, die bei negativen Eingaben eine sanfte, adaptive Reaktion liefert. Dadurch wird das „dying ReLU“-Phänomen reduziert und die Gradientpropagation in Long Short-Term Memory (LSTM)-Netzwerken verbessert. Durch Monte-Carlo-Simulationen wurde gezeigt, dass die Funktion stabile Lernschritte ermöglicht, selbst bei stark verrauschten Daten.

Die Wirksamkeit der Brownian ReLU wurde an realen Finanzzeitreihen getestet – darunter Aktienkurse von Apple, GCB und dem S&P 500 – sowie an Klassifikationsaufgaben mit LendingClub‑Darlehensdaten. Die Ergebnisse zeigten konsequent niedrigere mittlere quadratische Fehler (MSE) und höhere R²‑Werte, was auf eine verbesserte Vorhersagegenauigkeit und bessere Generalisierung hinweist.

Obwohl die ROC‑AUC-Metrik bei Klassifikationsaufgaben begrenzt ist, verdeutlicht die Studie, dass die Wahl der Aktivierungsfunktion einen wesentlichen Einfluss auf das Gleichgewicht zwischen Genauigkeit und Sensitivität hat. Brownian ReLU liefert dabei praktisch signifikante Leistungssteigerungen, die für die Finanzmodellierung von großem Nutzen sind.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Deep Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Brownian ReLU
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
LSTM
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen