GCoDE: Automatisiertes Gerät-Edge-Co-Inference für Graph Neural Networks

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Graph Neural Networks (GNNs) gelten als führende Methode im Graph-Learning, doch ihre hohe Rechenintensität erschwert eine effiziente Ausführung auf Edge-Geräten. Die begrenzten Hardware-Ressourcen verhindern, dass GNNs Echtzeit- und Energieanforderungen in realen Edge-Szenarien erfüllen.

Als vielversprechendes Konzept bietet das Gerät-Edge-Co-Inference die Möglichkeit, Rechenaufgaben zwischen lokalen Geräten und Edge-Servern zu verteilen, um Effizienz und Energieverbrauch zu senken. Bisher fehlt jedoch ein systematischer Ansatz, da herkömmliche Partitionierungsmethoden bei GNNs nicht funktionieren.

GCoDE ist das erste automatische Framework, das GNN-Architektur und Mapping in einer gemeinsamen Design‑Space zusammenführt. Durch die Abstraktion des Gerätekommunikationsprozesses als explizite Operation ermöglicht GCoDE eine ganzheitliche Optimierung von Architektur und Platzierung. Das System berücksichtigt die heterogene Hardware und nutzt ein energievorhersagendes Modell, um die Effizienz verschiedener GNN‑Operationen präzise zu bewerten.

Mit einer constraint‑basierten Random‑Search‑Strategie findet GCoDE innerhalb von 1,5 Stunden die optimale Lösung, die Genauigkeit und Effizienz ausbalanciert. Das Ergebnis liefert energieeffiziente, hochperformante GNN‑Deployments für heterogene Edge‑Systeme und ebnet damit den Weg für den breiten Einsatz von Graph Neural Networks in ressourcenbeschränkten Umgebungen.

Ähnliche Artikel