Forschung arXiv – cs.AI

NeuroProlog: Neuromodell kombiniert Symbolik und KI für mathematisches Denken

NeuroProlog ist ein neurosymbolisches System, das mathematische Wortaufgaben in ausführbare Prolog‑Programme übersetzt und damit eine formale Verifizierbarkeit der Lösungen garantiert. Durch die Kombination von großen S…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • NeuroProlog ist ein neurosymbolisches System, das mathematische Wortaufgaben in ausführbare Prolog‑Programme übersetzt und damit eine formale Verifizierbarkeit der Lösun…
  • Durch die Kombination von großen Sprachmodellen mit symbolischer Logik wird die Zuverlässigkeit bei mathematischem Denken deutlich erhöht.
  • Das Herzstück des Ansatzes ist die „Cocktail“-Trainingsstrategie, die drei Aufgaben gleichzeitig optimiert: die Übersetzung von mathematischen Formeln in Regeln, die Syn…

NeuroProlog ist ein neurosymbolisches System, das mathematische Wortaufgaben in ausführbare Prolog‑Programme übersetzt und damit eine formale Verifizierbarkeit der Lösungen garantiert. Durch die Kombination von großen Sprachmodellen mit symbolischer Logik wird die Zuverlässigkeit bei mathematischem Denken deutlich erhöht.

Das Herzstück des Ansatzes ist die „Cocktail“-Trainingsstrategie, die drei Aufgaben gleichzeitig optimiert: die Übersetzung von mathematischen Formeln in Regeln, die Synthese von Programmen aus natürlicher Sprache und die Ausrichtung von Programmen auf die korrekte Antwort. Durch diese gemeinsame Supervision profitieren die einzelnen Komponenten voneinander, sodass die symbolische Fundierung der Formulartabelle die Fähigkeit zur Zusammensetzung von Rechenoperationen verbessert.

Im Inferenzmodus nutzt NeuroProlog einen execution‑guided Decoding‑Pipeline, die Fehler in feingranularer Taxonomie erkennt und es dem Modell ermöglicht, Programme schrittweise zu reparieren. Dieser iterative Reparaturmechanismus quantifiziert gleichzeitig die Selbstdebugging‑Fähigkeit des Modells und sorgt für konsistente, nachvollziehbare Ergebnisse.

Die Evaluation auf dem GSM8K‑Datensatz zeigt, dass die Cocktail‑Trainingsmethode bei Modellen von 3 B bis 32 B Parametern signifikante Genauigkeitssteigerungen erzielt: +5,23 % bei Qwen‑32B, +3,43 % bei GPT‑OSS‑20B und +5,54 % bei Llama‑3B im Vergleich zu Einzelaufgaben‑Baselines. Eine detaillierte Fehleranalyse offenbart, dass bei 32‑B‑Modellen die Methode unlösbare Typfehler (12 % Reparaturrate) in lösbare Domänenfehler (96 % Reparaturrate) umwandelt und damit eine Gesamtkorrekturquote von 92,7 % erreicht.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich fuer Nutzer oder Builder konkret?
Ist das ein nachhaltiger Trend oder nur ein kurzes Signal?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.