RAG‑FLARKO: Mehrstufige KG‑Abfrage verbessert Finanzempfehlungen
Große Sprachmodelle (LLMs) versprechen personalisierte Finanzempfehlungen, stoßen jedoch an Grenzen: begrenzter Kontext, Halluzinationen und fehlende Verhaltensgrundlage erschweren die Praxis.
In der Vorgängerversion FLARKO wurden strukturierte Wissensgraphen (KGs) in die Prompt‑Struktur von LLMs eingebettet, um Ratschläge stärker an das Nutzerverhalten und Marktdaten anzupassen. RAG‑FLARKO erweitert dieses Konzept um eine retrieval‑augmentierte, mehrstufige und parallele KG‑Abfrage, die Skalierbarkeit und Relevanz deutlich verbessert.
Der Ansatz beginnt mit der Extraktion verhaltensrelevanter Entitäten aus dem Transaktions‑KG des Nutzers. Anschließend werden mithilfe dieses Kontexts zeitlich konsistente Signale aus einem Markt‑KG gefiltert, wodurch ein kompakter, fundierter Untergraph für das LLM entsteht. Diese Pipeline reduziert den Kontextaufwand und fokussiert das Modell gezielt auf die wichtigsten Informationen.
Eine empirische Evaluation auf einem realen Finanztransaktionsdatensatz zeigt, dass RAG‑FLARKO die Qualität der Empfehlungen signifikant steigert. Besonders hervorzuheben ist, dass kleinere, ressourcenschonende Modelle dadurch hohe Leistungen in Bezug auf Rentabilität und Verhaltensausrichtung erzielen können – ein vielversprechender Weg, fundierte Finanz‑KI in ressourcenbeschränkten Umgebungen einzusetzen.