Neuro-Symbolische Finanzlogik: Zero-Halluzination mit deterministischen Ledgern

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

Standard Retrieval‑Augmented Generation (RAG) Modelle stoßen in hochriskanten Finanzanwendungen an ihre Grenzen. Sie können weder präzise arithmetische Berechnungen durchführen noch unterscheiden, ob ein Begriff wie „Net Income“ tatsächlich mit „Net Sales“ verwechselt wird, weil beide im Kontext ähnlich erscheinen. In deterministischen Bereichen reicht selbst ein 99‑Prozent‑Genauigkeitswert nicht, um Vertrauen zu schaffen – Fehler führen zu 0 % operativem Vertrauen.

Um dieses Problem zu lösen, präsentiert die Forschung den Verifiable Numerical Reasoning Agent (VeNRA). VeNRA wandelt das RAG‑Paradigma um: anstatt probabilistische Textfragmente abzurufen, holt es deterministische Variablen aus einem streng typisierten Universal Fact Ledger (UFL). Dieser Ledger wird mathematisch durch einen neu entwickelten Double‑Lock Grounding Algorithmus abgesichert, sodass jede abgerufene Information eindeutig und überprüfbar ist.

Da Fehler beim Parsen unvermeidlich sind, wurde der VeNRA Sentinel entwickelt – ein 3‑Milliarden‑Parameter Sprachmodell, das Python‑Ausführungspfade forensisch prüft und dabei nur einen Token‑Testbudget einsetzt. Für das Training wird auf herkömmliche Halluzinationsdatensätze verzichtet. Stattdessen nutzt man Adversarial Simulation, bei der echte Finanzdaten gezielt manipuliert werden, um Produktionsfehler wie „Logic Code Lies“ und „Numeric Neighbor Traps“ nachzubilden. So lernt der Sentinel, echte Fehler zu erkennen, bevor sie zu Halluzinationen führen.

Um die Sentinel‑Modelle unter strengen Latenz‑Beschränkungen zu optimieren, wird ein ein‑Durchlauf‑Klassifikationsparadigma eingesetzt, ergänzt durch optionales „Post‑Thinking“ für Debug‑Zwecke. Gleichzeitig wird das Phänomen der Loss Dilution in Reverse‑Chain‑of‑Thought‑Training adressiert. Hierfür wird ein OOM‑sicherer Micro‑Chunking‑Loss‑Algorithmus vorgestellt, der die Gradienten stabilisiert und die Lernrate verbessert.

Ähnliche Artikel