THOR: Induktive Linkvorhersage in hyper‑relationalen Wissensgraphen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Wissensgraphen (KGs) sind inzwischen ein unverzichtbares Fundament für zahlreiche Anwendungen. Während klassische KGs Fakten als Tripel darstellen, nutzen moderne Graphen zunehmend hyper‑relationale Fakten, bei denen ein Tripel durch beliebig viele Qualifikatoren ergänzt wird. Diese zusätzlichen Informationen erweitern die Semantik und können die Leistung bei Link‑Prediction‑Aufgaben deutlich steigern.

Die meisten bestehenden Verfahren für hyper‑relationale KGs arbeiten jedoch im transduktiven Rahmen: Sie lernen Embeddings für ein festes Vokabular und können anschließend nur innerhalb dieses Vokabulars Vorhersagen treffen. Das schränkt die Übertragbarkeit auf neue, bislang unbekannte Vokabulare stark ein.

THOR löst dieses Problem mit einer vollständig induktiven Methode. Zunächst werden zwei „Foundation‑Graphs“ – einer für Relationen und einer für Entitäten – aufgebaut, die die grundlegenden Inter‑ und Intra‑Fakt-Interaktionen modellieren, ohne an spezifische Relationen oder Entitäten gebunden zu sein. Anschließend lernt THOR mit zwei parallelen Graphencodern und einem Transformer‑Decoder, wobei ein maskiertes Training die Effizienz erhöht und die volle Induktivität ermöglicht.

In umfangreichen Tests auf zwölf unterschiedlichen Datensätzen übersteigt THOR die Leistung einer breiten Palette von Baselines. Damit demonstriert die Methode, dass induktive Link‑Prediction in hyper‑relationalen Wissensgraphen nicht nur machbar, sondern auch überlegen ist.

Ähnliche Artikel