Dueling Double Deep Q-Netzwerke: Uniswap V3 Replikation & Mamba-Erweiterung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einem aktuellen Beitrag auf arXiv wird die Replikation und Weiterentwicklung eines Modells zur adaptiven Liquiditätsbereitstellung in Uniswap V3 vorgestellt. Das Originalmodell nutzt Deep Reinforcement Learning, um die optimale Preisgestaltung von Liquidity Pools zu bestimmen.

Die Autoren beschreiben zunächst, wie sie die notwendigen Daten aus dem Uniswap Subgraph extrahieren und das Modell implementieren. Dabei geben sie detaillierte Einblicke in die Vorgehensweise und diskutieren die Ergebnisse der Replikation, die im Wesentlichen mit den ursprünglichen Befunden übereinstimmen.

Im Anschluss schlagen die Forscher eine neue Architektur vor, die Mamba mit Dueling Double Deep Q-Networks (DDQN) kombiniert und eine überarbeitete Belohnungsfunktion einführt. Durch erneutes Bereinigen der Daten und die Einführung zweier zusätzlicher Baselines wird die Vergleichbarkeit verbessert.

Die ersten Tests zeigen, dass das erweiterte Modell theoretisch robuster ist und in mehreren Szenarien bessere Leistungen erzielt als das ursprüngliche Modell. Eine vollständige Auswertung über alle verfügbaren Datensätze steht noch aus, lässt jedoch vielversprechende Ergebnisse erkennen.

Ähnliche Artikel