GADPN: Graph Adaptive Denoising & Perturbation Networks optimieren Graph‑Lernen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Graph Neural Networks (GNNs) sind bei der Analyse von netzwerkstrukturierten Daten führend, doch ihre Leistung hängt stark von der Qualität des zugrunde liegenden Graphen ab. Rauschen, fehlende Kanten oder strukturelle Missanpassungen können die Ergebnisse stark beeinträchtigen. Um diesem Problem entgegenzuwirken, entwickelt das neue Verfahren GADPN ein einfaches, aber wirkungsvolles Framework zur graphbasierten Strukturverbesserung.

GADPN nutzt eine Kombination aus Low‑Rank‑Denoising und einer erweiterten strukturellen Perturbation. Durch Bayesian Optimization wird die optimale Denoising‑Stärke für jeden Graphen individuell bestimmt, wobei die Homophilie des Netzwerks berücksichtigt wird. Zusätzlich wird die klassische Perturbationstechnik mittels Singular Value Decomposition (SVD) auf beliebige Graphen ausgeweitet, wodurch die bisherige Beschränkung auf symmetrische Strukturen aufgehoben wird.

In umfangreichen Experimenten auf Standard‑Benchmarks erzielt GADPN einen deutlichen Leistungszuwachs gegenüber bestehenden Methoden. Besonders bei disassortativen Graphen, die typischerweise schwer zu modellieren sind, zeigt das Verfahren signifikante Verbesserungen. Gleichzeitig reduziert es die Rechenkosten, da keine aufwendigen generativen Modelle oder iterative Optimierungen erforderlich sind.

GADPN beweist damit, dass eine gezielte, datenabhängige Anpassung der Graphstruktur nicht nur die Genauigkeit von GNNs steigert, sondern auch die Effizienz erhöht. Das Ergebnis ist ein robustes Werkzeug, das für eine breite Palette von Netzwerktypen einsetzbar ist und damit die praktische Anwendbarkeit von Graph Neural Networks weiter vorantreibt.

Ähnliche Artikel