Agentisches RL lernt SPARQL-Abfragen schrittweise zu verbessern
In einer neuen Veröffentlichung auf arXiv präsentiert ein Forschungsteam einen innovativen Ansatz, mit dem ein Sprachmodell (LLM) selbstständig komplexe SPARQL-Abfragen für mehrstufige Fragen aus Knowledge Graphs erstel…
- In einer neuen Veröffentlichung auf arXiv präsentiert ein Forschungsteam einen innovativen Ansatz, mit dem ein Sprachmodell (LLM) selbstständig komplexe SPARQL-Abfragen…
- Der Schlüssel liegt in einer agentischen Lernumgebung, in der das Modell durch Reinforcement Learning (RL) eine robuste Strategie entwickelt, die Abfragen iterativ zu ko…
- Das System nutzt ein kompaktes 3‑Billionen‑Parameter-Modell, das ausschließlich über ein ergebnisorientiertes RL‑Verfahren namens GRPO trainiert wird – ohne klassische S…
In einer neuen Veröffentlichung auf arXiv präsentiert ein Forschungsteam einen innovativen Ansatz, mit dem ein Sprachmodell (LLM) selbstständig komplexe SPARQL-Abfragen für mehrstufige Fragen aus Knowledge Graphs erstellt. Der Schlüssel liegt in einer agentischen Lernumgebung, in der das Modell durch Reinforcement Learning (RL) eine robuste Strategie entwickelt, die Abfragen iterativ zu konstruieren und bei Ausführungsfehlern zu korrigieren.
Das System nutzt ein kompaktes 3‑Billionen‑Parameter-Modell, das ausschließlich über ein ergebnisorientiertes RL‑Verfahren namens GRPO trainiert wird – ohne klassische Supervised‑Fine‑Tuning‑Schritte. Durch die kontinuierliche Rückmeldung aus der Ausführung der Abfragen lernt das Modell, Fehler zu erkennen, zu analysieren und gezielt zu beheben, sodass die Abfragen schrittweise dem korrekten Ergebnis näher kommen.
Auf einer sorgfältig ausgewählten, ausführbaren Teilmenge des LC‑QuAD‑2.0‑Datensatzes erzielt der Agent eine Genauigkeit von 49,7 % nach Entity‑Linking, was einen deutlichen Vorsprung von 17,5 Prozentpunkten gegenüber dem besten iterativen Zero‑Shot‑Baseline darstellt. Die Analyse zeigt, dass die RL‑Lernphase die Grundkompetenz liefert, während ein zusätzliches deliberatives Denk‑Schritt die Präzision der Policy weiter steigert.
Diese Arbeit liefert ein generisches Konzept, wie Agenten durch Interaktion formale, symbolische Werkzeuge erlernen können. Sie schließt die Lücke zwischen probabilistischen Sprachmodellen und der strukturierten Welt von Knowledge Graphs und eröffnet neue Perspektiven für die automatisierte Abfragegenerierung in datenintensiven Anwendungen.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.