Monotone GNNs mit Scoring‑Funktionen: Mehr Erklärbarkeit und starke Leistung bei Link‑Prediction
Graph Neural Networks (GNNs) werden häufig eingesetzt, um fehlende Verbindungen in Wissensgraphen vorherzusagen. Obwohl GNNs leistungsfähig sind, fehlt ihnen bislang eine klare Erklärbarkeit. In jüngsten Studien wurden Datalog‑Regeln aus GNNs extrahiert, um ihre Vorhersagen zu erläutern, jedoch beschränkten sich diese Ansätze auf ein stark eingeschränktes Link‑Prediction‑Schema.
Die neue Arbeit erweitert diesen Ansatz um die weit verbreitete Methode, bei der ein Scoring‑Funktion die GNN‑Ausgabe in Fakten übersetzt. Durch die Anpassung von GNNs und Scoring‑Funktionen an Monotonie können nun robuste Regeln abgeleitet werden, die die Vorhersagen exakt erklären. Zusätzlich nutzt die Studie bereits vorhandene Erkenntnisse darüber, welche Regeltypen von Scoring‑Funktionen erfasst werden können.
Für bestimmte Klassen monotone GNNs mit Scoring‑Funktionen werden Verfahren vorgestellt, die äquivalente Datalog‑Programme erzeugen. In Experimenten auf etablierten Link‑Prediction‑Benchmarks zeigen die monotone Modelle nicht nur eine starke Praxisleistung, sondern liefern auch eine große Menge an korrekten, erklärenden Regeln.