MQ‑GNN: Mehrspurige Pipeline‑Architektur beschleunigt GNN‑Training um 4,6×
Graph Neural Networks (GNNs) sind leistungsstarke Werkzeuge für die Analyse von Graphdaten, doch ihre Skalierbarkeit leidet unter ineffizienter Mini‑Batch‑Erzeugung, Datenübertragungsengpässen und teurer Synchronisation zwischen GPUs. Traditionelle Trainingsframeworks können diese Phasen nicht gleichzeitig ausführen, was zu suboptimaler Ressourcennutzung führt.