PolyNSD: Polynomial‑Sheaf‑Diffusion erreicht neue State‑of‑the‑Art

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Sheaf Neural Networks erweitern graphbasierte Modelle um eine zelluläre Sheaf‑Struktur, die jedem Knoten ein lokales Vektorraum‑„Stalk“ zuweist und lernbare Restriktions‑ bzw. Transport‑Maps entlang der Kanten bereitstellt. Diese Architektur liefert ein kanten‑sensibles inductives Bias, das Heterophilie adäquat behandelt und das Problem des Oversmoothings reduziert.

Die bisher üblichen Implementierungen von Neural Sheaf Diffusion stützen sich jedoch auf SVD‑basierte Sheaf‑Normalisierung und dichte, kanten‑weise Restriktions‑Maps. Diese Ansätze skalieren mit der Stalk‑Dimension, erfordern häufige Laplacian‑Neubau‑Operationen und führen zu instabilen Gradienten.

PolyNSD (Polynomial Neural Sheaf Diffusion) löst diese Schwächen, indem es die Propagationsoperatoren als Grad‑K‑Polynome eines normalisierten Sheaf‑Laplacians definiert. Durch eine stabile drei‑Term‑Rekurrenz auf einem spektral‑skalierten Operator erhält man einen expliziten K‑Hop‑Rezeptionsbereich in einer einzigen Schicht, unabhängig von der Stalk‑Dimension. Der spektrale Antwortraum wird als konvexe Mischung von K + 1 orthogonalen Polynom‑Basisfunktionen trainiert.

Die Stabilität wird durch konvexe Mischungen, spektrale Reskalierung sowie Residual‑ und Gate‑Pfad‑Architekturen gewährleistet. PolyNSD erzielt damit neue State‑of‑the‑Art‑Ergebnisse auf homophilen und heterophilen Benchmark‑Datensätzen, während es lediglich diagonale Restriktions‑Maps nutzt. Dadurch wird die Leistung von der Stalk‑Dimension entkoppelt und sowohl Laufzeit als auch Speicherbedarf signifikant reduziert.

Ähnliche Artikel