Neue komplexgewichtete Convolutional Networks steigern Ausdruckskraft von GNNs
Graph Neural Networks (GNNs) haben in vielen Bereichen beeindruckende Erfolge erzielt, stoßen jedoch häufig an Grenzen wie Oversmoothing und schwacher Leistung bei heterophilen Graphen. Um diese Probleme zu überwinden, wurde ein neues Konzept vorgestellt, das jedem Kante eines Graphen eine komplexe Zahl zuweist und damit einen Diffusionsprozess ermöglicht, der klassische Random Walks in den komplexen Raum erweitert.
Die Autoren zeigen, dass diese komplexgewichtete Diffusion äußerst ausdrucksstark ist: Mit geeigneten komplexen Gewichten lässt sich jede Aufgabe der Knotenkategorisierung im Gleichgewichtszustand eines komplexen Random Walks lösen. Aufbauend auf dieser Erkenntnis wird das Complex‑Weighted Convolutional Network (CWCN) präsentiert, das die komplexen Strukturen direkt aus den Daten lernt und die Diffusion durch lernbare Matrizen sowie nichtlineare Aktivierungen weiter verfeinert.
Das CWCN ist leicht zu implementieren, benötigt keine zusätzlichen Hyperparameter über die üblichen GNN‑Parameter hinaus und erzielt auf Standard‑Benchmark‑Datensätzen konkurrenzfähige Ergebnisse. Die Ergebnisse demonstrieren, dass komplexgewichtete Diffusion ein theoretisch fundiertes und zugleich praktisch wirksames Mittel ist, um die Ausdruckskraft von GNNs zu erhöhen und neue, leistungsfähige Modelle zu ermöglichen.