MQ‑GNN: Mehrspurige Pipeline‑Architektur beschleunigt GNN‑Training um 4,6×

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Graph Neural Networks (GNNs) sind leistungsstarke Werkzeuge für die Analyse von Graphdaten, doch ihre Skalierbarkeit leidet unter ineffizienter Mini‑Batch‑Erzeugung, Datenübertragungsengpässen und teurer Synchronisation zwischen GPUs. Traditionelle Trainingsframeworks können diese Phasen nicht gleichzeitig ausführen, was zu suboptimaler Ressourcennutzung führt.

Die neue Architektur MQ‑GNN löst dieses Problem mit einem mehrspurigen Pipeline‑Ansatz, der die einzelnen Trainingsschritte überlappend abarbeitet und dadurch die Effizienz maximiert. Ein zentrales Element ist das Ready‑to‑Update Asynchronous Consistent Model (RaCoM), das asynchronen Gradienten‑Austausch und Modell‑Updates ermöglicht, während durch adaptive periodische Synchronisation globale Konsistenz gewährleistet bleibt.

Zusätzlich nutzt MQ‑GNN globales Nachbarschaftssampling mit Caching, um den Datenverkehr zu reduzieren, und eine adaptive Warteschlangen‑Größenstrategie, die Rechen- und Speicherbedarf ausbalanciert. In Experimenten mit vier großen Datensätzen und zehn Basis‑Modellen erzielte die Methode bis zu 4,6‑fach schnellere Trainingszeiten und 30 % höhere GPU‑Auslastung, ohne die Genauigkeit zu beeinträchtigen.

Diese Ergebnisse positionieren MQ‑GNN als skalierbare und effiziente Lösung für das Multi‑GPU‑Training von Graph Neural Networks.

Ähnliche Artikel