MAGNNs: Logische Erklärungen für GNNs mit Mittelwertaggregation
Graph Neural Networks (GNNs) werden häufig zur Vervollständigung von Wissensgraphen eingesetzt. Ihre Black‑Box‑Natur hat die Entwicklung von erklärenden, logischen Regeln vorangetrieben, doch bislang fehlen systematische Ergebnisse für GNNs, die die Mittelwertaggregation nutzen. In der neuen Studie werden GNNs mit Mittelwertaggregation und nicht‑negativen Gewichten – MAGNNs – untersucht. Der Autor beweist, welche monotonen Regeln für diese Modelle wahrheitsgemäß sind, und stellt einen eingeschränkten Teil der ersten‑Ordnung‑Logik vor, mit dem jede MAGNN‑Vorhersage erklärt werden kann.
Die Experimente zeigen, dass die Beschränkung auf nicht‑negative Gewichte die Leistung auf gängigen induktiven Benchmarks nicht verschlechtert, sondern in vielen Fällen sogar verbessert. Darüber hinaus lassen sich in der Praxis tatsächlich sinnvolle Regeln extrahieren, die die Vorhersagen nachvollziehbar machen. Die gewonnenen Regeln bieten zudem die Möglichkeit, Fehler oder unerwartete Muster in den trainierten Modellen aufzudecken.