LLMs lernen aus menschlichem Feedback: Fortschritt bei Text‑zu‑SQL
Eine neue Veröffentlichung auf arXiv (2511.10674v1) präsentiert ein Framework, das große Sprachmodelle (LLMs) kontinuierlich aus menschlichem Feedback lernen lässt, um SQL‑Abfragen für spezifische Datenbankschemata zu optimieren. Durch die Einbindung von natürlicher Sprachrückmeldung kann der Lernagent seine Abfragen verfeinern und das dabei entstehende Wissen in einer strukturierten Speicher‑Komponente ablegen.
Der Ansatz speichert das erlernte Wissen in einem strukturierten Gedächtnis, sodass der Agent bei zukünftigen Aufgaben auf bereits vorhandene Erfahrungen zurückgreifen kann. Dadurch verbessert sich die Ausführungsgenauigkeit der SQL‑Abfragen im Laufe der Zeit, ohne dass jedes Mal ein neues Modell trainiert werden muss.
In Experimenten auf dem BIRD‑Benchmark‑Dev‑Set zeigte sich, dass besonders die „Procedural Agent“-Variante, die das Gedächtnis nutzt, signifikante Genauigkeitssteigerungen und Fehlerreduktionen erzielt. Die Ergebnisse unterstreichen die Bedeutung, implizites menschliches Fachwissen in wiederverwendbare Daten umzuwandeln, und ebnen den Weg für adaptive, domänenbewusste Text‑zu‑SQL‑Systeme, die kontinuierlich aus menschlichem Feedback lernen.