Neues Modell ermöglicht vollständig induktives Graph‑Lernen ohne Retraining
Ein neues Verfahren namens Graph View Transformation (GVT) eröffnet die Möglichkeit, Graph‑Strukturen vollständig induktiv zu verarbeiten, ohne dass das Modell für neue Datensätze neu trainiert werden muss. Durch die Einführung eines sogenannten View‑Spaces können beliebige Graphen in einer einheitlichen Repräsentation kodiert werden, was die bisherige Einschränkung durch unterschiedliche Feature‑Dimensionen und Semantik löst.
GVT ist eine permutation‑equivariante Abbildung, die sowohl Knoten‑ als auch Feature‑Permutation berücksichtigt. Auf dieser Basis wurde Recurrent GVT entwickelt, ein vollständig induktives Modell für die Knotendarstellung. Nach dem Vortraining auf dem OGBN‑Arxiv‑Datensatz wurde es auf 27 Aufgaben der Knotenkategorisierung getestet.
Die Ergebnisse sind beeindruckend: Recurrent GVT übertrifft das bisher führende Modell GraphAny um 8,93 % und übertrifft mindestens 12 individuell abgestimmte GNN‑Modelle um 3,30 % oder mehr. Diese Leistungen zeigen, dass der View‑Space ein solides Fundament für induktives Graph‑Lernen bildet und die Entwicklung von Basis‑Modellen in diesem Bereich vorantreibt.