NeuroProlog: Neuromodell kombiniert Symbolik und KI für mathematisches Denken

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

NeuroProlog ist ein neurosymbolisches System, das mathematische Wortaufgaben in ausführbare Prolog‑Programme übersetzt und damit eine formale Verifizierbarkeit der Lösungen garantiert. Durch die Kombination von großen Sprachmodellen mit symbolischer Logik wird die Zuverlässigkeit bei mathematischem Denken deutlich erhöht.

Das Herzstück des Ansatzes ist die „Cocktail“-Trainingsstrategie, die drei Aufgaben gleichzeitig optimiert: die Übersetzung von mathematischen Formeln in Regeln, die Synthese von Programmen aus natürlicher Sprache und die Ausrichtung von Programmen auf die korrekte Antwort. Durch diese gemeinsame Supervision profitieren die einzelnen Komponenten voneinander, sodass die symbolische Fundierung der Formulartabelle die Fähigkeit zur Zusammensetzung von Rechenoperationen verbessert.

Im Inferenzmodus nutzt NeuroProlog einen execution‑guided Decoding‑Pipeline, die Fehler in feingranularer Taxonomie erkennt und es dem Modell ermöglicht, Programme schrittweise zu reparieren. Dieser iterative Reparaturmechanismus quantifiziert gleichzeitig die Selbstdebugging‑Fähigkeit des Modells und sorgt für konsistente, nachvollziehbare Ergebnisse.

Die Evaluation auf dem GSM8K‑Datensatz zeigt, dass die Cocktail‑Trainingsmethode bei Modellen von 3 B bis 32 B Parametern signifikante Genauigkeitssteigerungen erzielt: +5,23 % bei Qwen‑32B, +3,43 % bei GPT‑OSS‑20B und +5,54 % bei Llama‑3B im Vergleich zu Einzelaufgaben‑Baselines. Eine detaillierte Fehleranalyse offenbart, dass bei 32‑B‑Modellen die Methode unlösbare Typfehler (12 % Reparaturrate) in lösbare Domänenfehler (96 % Reparaturrate) umwandelt und damit eine Gesamtkorrekturquote von 92,7 % erreicht.