Neues GNN-Modell nutzt Nachbarschaftskontext für bessere Graphdarstellung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Graph Neural Networks (GNNs) sind heute unverzichtbar für die Analyse relationaler Daten. Klassische GNNs lassen sich in drei Hauptvarianten einteilen: konvolutional, attentional und message‑passing. Während die message‑passing‑Variante sehr ausdrucksstark ist, berücksichtigt sie in der Regel nur die Merkmale des Mittelpunktknotens und jedes Nachbarknotens einzeln. Dadurch bleibt die wertvolle Kontextinformation, die im gesamten lokalen Nachbarschaftsbereich liegt, ungenutzt, was die Fähigkeit zur Erkennung komplexer Beziehungen einschränken kann.

Um dieses Problem zu lösen, definiert die neue Arbeit zunächst das Konzept der Nachbarschaftskontextualisierung, inspiriert von einer Schlüsselidee der attentionalen Variante. Darauf aufbauend wird das message‑passing‑Modell erweitert und das sogenannte Neighborhood‑Contextualized Message‑Passing (NCMP) Framework vorgestellt. Als praktisches Beispiel wird ein leichtgewichtiges, effizientes Verfahren zur Parametrisierung von NCMP präsentiert, das zur Entwicklung des Soft‑Isomorphic Neighborhood‑Contextualized Graph Convolution Network (SINC‑GCN) führt.

Eine erste Analyse auf einem synthetischen Binär‑Knotenklassifikationsproblem demonstriert, dass SINC‑GCN sowohl eine höhere Ausdruckskraft als auch eine verbesserte Effizienz bietet. Insgesamt legt der Beitrag die Grundlage für NCMP als praktikable Methode, die graphbasierte Repräsentationskraft klassischer GNNs weiter zu steigern.

Ähnliche Artikel