Neues Verfahren condenses große Graphen mit Tensor-Dekomposition

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Graph Neural Networks (GNNs) haben in den letzten Jahren enorme Fortschritte in Bereichen wie Wirkstoffforschung, Objekterkennung, Social‑Media‑Analyse, Empfehlungssystemen und Textklassifikation erzielt. Trotz ihres Potenzials stellen die enormen Speicher‑ und Rechenanforderungen beim Training auf großen Graphen ein erhebliches Hindernis dar.

Graph Condensation ist ein vielversprechender Ansatz, um diese Last zu verringern: anstelle des Originalgraphen wird ein kompakter synthetischer Graph erzeugt, der die wesentlichen Strukturen beibehält und gleichzeitig die Vorhersagekraft der GNNs erhält. Aktuelle Verfahren setzen jedoch häufig auf aufwändige bi‑level‑Optimierungen und verlieren dabei die Zuordnung zwischen den synthetischen und den ursprünglichen Knoten, was die Interpretierbarkeit einschränkt.

In diesem Zusammenhang hat ein neues Verfahren namens Multi‑View Graph Condensation via Tensor Decomposition (GCTD) einen alternativen Weg aufgezeigt. GCTD nutzt Tensor‑Decomposition‑Techniken, die bislang in der Graph‑Condensation kaum untersucht wurden, um lineare und multilineare Funktionen aus Graphdaten zu extrahieren. Dadurch entsteht ein transparenterer und ressourcenschonender Prozess.

Um die Wirksamkeit von GCTD zu prüfen, wurden umfangreiche Experimente an sechs realen Datensätzen durchgeführt. Die Ergebnisse zeigen, dass GCTD die Graphgröße signifikant reduziert, während die Leistung bei nachgelagerten Aufgaben – etwa Klassifikation oder Vorhersage – nahezu unverändert bleibt. Damit demonstriert das Verfahren, dass Tensor‑Decomposition ein leistungsfähiges Werkzeug für die effiziente Graph‑Condensation sein kann.

Ähnliche Artikel