Strukturiertes Chain‑of‑Thought steigert Text‑zu‑SQL‑Leistung um 8,1 %

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Einführung präziser Text‑zu‑SQL‑Systeme in Unternehmen steht vor einem schwierigen Dreiklang aus Kosten, Sicherheit und Leistung. Derzeit müssen Firmen zwischen teuren, proprietären Large Language Models (LLMs) und weniger leistungsfähigen Small Language Models (SLMs) wählen. Um die Lücke zu schließen, versucht man häufig, das Denken großer LLMs durch unstrukturierte Chain‑of‑Thought‑Spuren an SLMs zu übertragen – ein Ansatz, der jedoch von Natur aus mehrdeutig bleibt.

In der neuen Studie wird die Idee vertreten, dass ein formales, strukturiertes Repräsentationsmodell des Denkprozesses klarere und zuverlässigere Lernsignale liefert. Für die Text‑zu‑SQL‑Aufgabe sind explizite und präzise logische Schritte entscheidend. Darauf aufbauend wurde das Framework Struct‑SQL entwickelt, das ein SLM mithilfe eines leistungsstarken LLMs trainiert. Dabei dient ein Abfrageausführungsplan als formelles Blueprint, um die strukturierte Argumentation abzubilden.

Die Ergebnisse sind überzeugend: Das mit strukturiertem Chain‑of‑Thought distillierte SLM erzielt eine absolute Verbesserung von 8,1 % gegenüber einem Baseline, das unstrukturierte CoT nutzt. Eine detaillierte Fehleranalyse zeigt, dass ein wesentlicher Beitrag dieser Steigerung die deutliche Reduktion syntaktischer Fehler ist. Damit wird deutlich, dass das Unterrichten eines Modells, logisch strukturierte SQL‑Schritte zu folgen, die Zuverlässigkeit der SQL‑Generierung in SLMs signifikant erhöht.

Ähnliche Artikel