HOPE: Orthogonale Experten verbessern heterogene Graphenlernen
In der Forschung zu heterogenen Graphen-Neuralnetzen (HGNNs) liegt der Fokus bislang vor allem auf verbesserten Encodern. Der Decodierungs- bzw. Projektionsteil nutzt jedoch weiterhin einen einzigen linearen Kopf, der davon ausgeht, dass er die komplexen Knoteneinbettungen zuverlässig in Labels übersetzen kann. Dieser Ansatz führt zu einer sogenannten Linear‑Projection‑Bottleneck‑Situation: Bei heterogenen Graphen mit starkem Kontext‑Verschiedenheitsgrad und langen Schwanz‑Verteilungen kann ein globaler Kopf feine Semantik übersehen, stark frequentierte Knoten überanpassen und seltene Knoten vernachlässigen.