Symbolische Unterstützung verbessert logisches Denken von Sprachmodellen
Eine neue Methode namens Symbolic‑Aided Chain‑of‑Thought (CoT) wurde vorgestellt, die die klassische Chain‑of‑Thought‑Technik für große Sprachmodelle (LLMs) erweitert. Durch die Einbindung leichter symbolischer Darstellungen in Few‑Shot‑Prompts werden die einzelnen Schritte des Denkprozesses klar strukturiert, sodass die Logik der Argumentation expliziter wird.
Der Ansatz bleibt dabei vollständig nicht‑iterativ, was die Effizienz erhöht, während gleichzeitig die Transparenz, Interpretierbarkeit und Analysefähigkeit der LLM‑Logik verbessert werden. Die symbolischen Strukturen bewahren die allgemeine Übertragbarkeit der Standard‑Prompting‑Techniken, ohne deren Flexibilität zu verlieren.
In umfangreichen Tests auf vier renommierten Logik‑Benchmarks – ProofWriter, FOLIO, ProntoQA und LogicalDeduction – zeigte sich, dass Symbolic‑Aided CoT besonders bei komplexen Aufgaben mit mehreren Regeln und Einschränkungen überzeugt. Die Methode steigert die Leistungsfähigkeit der Modelle über verschiedene Größen hinweg und übertrifft die herkömmliche CoT‑Methode bei drei der vier Datensätze.