LLM + ASP verbessert Entität-Relation-Extraktion mit nur 10 % Trainingsdaten
In der Forschung zur automatischen Entität-Relation-Extraktion (JERE) wurde ein neuer, generischer Workflow vorgestellt, der die Leistungsfähigkeit von generativen, vortrainierten Sprachmodellen (LLMs) mit den Stärken der Answer Set Programming (ASP)-Technologie kombiniert. Der Ansatz ermöglicht die gleichzeitige Erkennung von Entitäten und ihren Beziehungen aus unannotiertem Text und integriert gleichzeitig domänenspezifisches Wissen, ohne das Kernprogramm von ASP ändern zu müssen.
Traditionelle Machine‑Learning‑Methoden für JERE erfordern große Mengen an annotierten Daten und sind oft schwer an neue Fachgebiete anzupassen. Der vorgestellte Workflow nutzt die natürliche Sprachverständnisfähigkeit der LLMs, um aus Rohtexten Entitäten und Beziehungen zu extrahieren, während ASP die Möglichkeit bietet, zusätzliche Fachregeln und Typangaben einzubinden. Dadurch bleibt das System elaborationstolerant und kann flexibel erweitert werden.
In Experimenten mit drei etablierten Benchmarks – darunter der SciERC‑Korpus – zeigte der LLM‑+‑ASP‑Workflow eine überlegene Leistung gegenüber aktuellen State‑of‑the‑Art‑Systemen. Mit lediglich 10 % der üblichen Trainingsdaten erreichte das Verfahren eine 2,5‑fachere Verbesserung (35 % gegenüber 15 %) bei der Relation‑Extraction. Diese Ergebnisse unterstreichen die Effizienz und Vielseitigkeit des neuen Ansatzes für die gemeinsame Extraktion von Entitäten und Beziehungen in verschiedensten Anwendungsdomänen.