GeoGNN reduziert semantischen Drift in Text-Graphen – neue Methode überzeugt
Graph Neural Networks (GNNs) arbeiten häufig mit Text‑Attributed Graphs (TAGs), indem sie die Texte von Knoten mit vortrainierten Sprachmodellen (PLMs) kodieren und die resultierenden Einbettungen linear über Nachbarschaften aggregieren. Doch die Repräsentationsräume moderner PLMs sind hochgradig nichtlinear und geometrisch strukturiert – die Text‑Embeddings liegen auf gekrümmten semantischen Manifolds statt in flachen euklidischen Räumen. Lineare Aggregation auf solchen Manifolds verfälscht die Geometrie und führt zu semantischem Drift, bei dem die aggregierten Vektoren vom eigentlichen Manifold abweichen und semantische Präzision sowie Ausdruckskraft verlieren.