Forschung arXiv – cs.AI

LLM + ASP verbessert Entität-Relation-Extraktion mit nur 10 % Trainingsdaten

In der Forschung zur automatischen Entität-Relation-Extraktion (JERE) wurde ein neuer, generischer Workflow vorgestellt, der die Leistungsfähigkeit von generativen, vortrainierten Sprachmodellen (LLMs) mit den Stärken d…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Forschung zur automatischen Entität-Relation-Extraktion (JERE) wurde ein neuer, generischer Workflow vorgestellt, der die Leistungsfähigkeit von generativen, vort…
  • Der Ansatz ermöglicht die gleichzeitige Erkennung von Entitäten und ihren Beziehungen aus unannotiertem Text und integriert gleichzeitig domänenspezifisches Wissen, ohne…
  • Traditionelle Machine‑Learning‑Methoden für JERE erfordern große Mengen an annotierten Daten und sind oft schwer an neue Fachgebiete anzupassen.

In der Forschung zur automatischen Entität-Relation-Extraktion (JERE) wurde ein neuer, generischer Workflow vorgestellt, der die Leistungsfähigkeit von generativen, vortrainierten Sprachmodellen (LLMs) mit den Stärken der Answer Set Programming (ASP)-Technologie kombiniert. Der Ansatz ermöglicht die gleichzeitige Erkennung von Entitäten und ihren Beziehungen aus unannotiertem Text und integriert gleichzeitig domänenspezifisches Wissen, ohne das Kernprogramm von ASP ändern zu müssen.

Traditionelle Machine‑Learning‑Methoden für JERE erfordern große Mengen an annotierten Daten und sind oft schwer an neue Fachgebiete anzupassen. Der vorgestellte Workflow nutzt die natürliche Sprachverständnisfähigkeit der LLMs, um aus Rohtexten Entitäten und Beziehungen zu extrahieren, während ASP die Möglichkeit bietet, zusätzliche Fachregeln und Typangaben einzubinden. Dadurch bleibt das System elaborationstolerant und kann flexibel erweitert werden.

In Experimenten mit drei etablierten Benchmarks – darunter der SciERC‑Korpus – zeigte der LLM‑+‑ASP‑Workflow eine überlegene Leistung gegenüber aktuellen State‑of‑the‑Art‑Systemen. Mit lediglich 10 % der üblichen Trainingsdaten erreichte das Verfahren eine 2,5‑fachere Verbesserung (35 % gegenüber 15 %) bei der Relation‑Extraction. Diese Ergebnisse unterstreichen die Effizienz und Vielseitigkeit des neuen Ansatzes für die gemeinsame Extraktion von Entitäten und Beziehungen in verschiedensten Anwendungsdomänen.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Welches konkrete Problem loest das Modell besser als bisher?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Entität-Relation-Extraktion
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
LLM
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
ASP
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen