LLM-gestützte Formalisierung erkennt Gesetzeskonflikte im US-Steuerrecht zuverlässig
Ein neues, hybrides Neuro‑Symbolik‑Framework kombiniert große Sprachmodelle (LLMs) mit symbolischer Logik, um Gesetzeskonflikte im komplexen US‑Internal Revenue Code (IRC) deterministisch zu erkennen. Das System nutzt die Vielschichtigkeit des IRC als Testfeld, um widersprüchliche Bestimmungen zuverlässig aufzudecken.
Im Kern des Ansatzes steht die Übersetzung von Abschnitt 121 des IRC in Prolog‑Regeln, die zunächst mit GPT‑4o erstellt und anschließend in SWISH verfeinert wurden. Anschließend wurden diese Regeln in Prompt‑Strukturen eingebettet, um zu prüfen, ob Prolog‑unterstützte Aufforderungen die Erkennungsleistung von GPT‑4o verbessern. Parallel dazu wurde GPT‑5 eingesetzt, um die Formalisierung weiter zu optimieren und die widersprüchlichen Interpretationen des Abschnitts zu klären.
Die Experimente zeigten, dass GPT‑4o – egal ob mit natürlicher Sprache oder Prolog‑Erweiterung – die Inkonsequenz nur in einem von drei Strategien identifizierte (33 % Genauigkeit). Dabei erzielte die reine Sprachprompting‑Variante eine vollständige Regelabdeckung, während die Prolog‑unterstützte Variante lediglich 66 % erreichte. Im Gegensatz zu probabilistischen Ansätzen liefert das hybride Prolog‑Modell jedoch deterministische und reproduzierbare Ergebnisse, was die Zuverlässigkeit der Analyse deutlich erhöht.
Diese Entwicklung eröffnet neue Möglichkeiten für die Einhaltung von Gesetzen, die Förderung von Fairness und die präzise Ausarbeitung von Gesetzestexten. Durch die Kombination von LLM‑Flexibilität und symbolischer Präzision kann das System künftig als robustes Werkzeug für Juristen und Steuerexperten dienen, um komplexe Rechtskorpora systematisch zu prüfen und Konflikte frühzeitig zu erkennen.