TradeTrap: Wie zuverlässig sind KI‑basierte Handelsagenten wirklich?

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In den letzten Jahren setzen immer mehr Finanzmärkte KI‑basierte Handelsagenten ein, die mithilfe großer Sprachmodelle (LLM) eigenständig Analysen durchführen und Aufträge ausführen. Trotz ihrer wachsenden Verbreitung bleibt ihre Zuverlässigkeit – besonders unter feindlichen oder fehlerhaften Bedingungen – weitgehend unerforscht, obwohl sie in hochriskanten, irreversiblen Finanzumgebungen agieren.

Um diese Lücke zu schließen, hat ein Forschungsteam das TradeTrap‑Framework entwickelt. TradeTrap bietet einen einheitlichen Evaluationsansatz, um autonome Handelsagenten systematisch zu testen. Dabei werden vier zentrale Komponenten gezielt geprüft: Marktintelligenz, Strategieentwicklung, Portfoliomanagement inklusive Kontobuchhaltung und die eigentliche Auftragsausführung.

Die Tests werden in einer geschlossenen Schleife mit historischen US‑Aktienkursen durchgeführt. Alle Agenten starten unter identischen Bedingungen, sodass die Ergebnisse fair und reproduzierbar verglichen werden können. Durch gezielte, kontrollierte Störungen auf Systemebene wird die Robustheit der Agenten auf die Probe gestellt.

Die Ergebnisse sind alarmierend: Schon winzige Störungen in einem einzelnen Baustein können sich im Entscheidungsprozess des Agenten ausweiten und zu extremen Konzentrationen, unkontrolliertem Risiko und erheblichen Portfolioknicken führen. Sowohl adaptive als auch prozedurale Agenten sind damit systematisch manipuliert werden können.

Die Studie unterstreicht, dass aktuelle autonome Handelsagenten noch nicht ausreichend gegen systemische Angriffe geschützt sind. Der Quellcode des TradeTrap‑Frameworks ist öffentlich auf GitHub verfügbar, sodass andere Forscher und Praktiker die Tests reproduzieren und weiterentwickeln können.

Ähnliche Artikel