DANCE: Dynamische Graph‑Kondensation für federated Text‑Graphen
Federated Graph Learning (FGL) ermöglicht die gemeinsame Nutzung von Graphdaten über mehrere Clients hinweg. Mit dem Aufstieg großer Sprachmodelle (LLMs) gewinnen textbasierte Attribute in FGL‑Graphen zunehmend an Bedeutung. Das neue Paradigma DANCE (Dynamic, Available, Neighbor‑gated Condensation) nutzt gezielt LLMs, um diese Textinformationen zu verarbeiten und in das Graphmodell zu integrieren.
Aktuelle Methoden für Text‑Attributed Graph Federated Learning (TAG‑FGL) stoßen auf drei zentrale Probleme: Erstens verursacht die Verarbeitung langer Texte hohe Token‑ und Rechenkosten. Zweitens führt die einmalige Kondensation von Mehr‑Hop‑Nachbarschaften zu suboptimalen Ergebnissen, weil sie nicht an die jeweiligen Clients angepasst ist. Drittens erschwert die Black‑Box‑Natur der LLM‑Kondensation die Interpretierbarkeit, da Zusammenfassungen keine klare Zuordnung zu den ursprünglichen Textstellen bieten.
DANCE begegnet diesen Herausforderungen, indem es die Kondensation in jeder Trainingsrunde neu berechnet und dabei das aktuelle globale Modell einbezieht. Dadurch bleibt die Kondensation stets client‑adaptiv und verbessert die Lernleistung. Zusätzlich speichert DANCE lokal prüfbare „Evidence Packs“, die die Vorhersagen eindeutig auf ausgewählte Nachbarn und Textspannen zurückführen. Diese Transparenz erleichtert die lokale Inspektion und das Auditing erheblich.
In umfangreichen Experimenten auf acht realen Datensätzen zeigt DANCE eine deutliche Leistungssteigerung gegenüber bestehenden TAG‑FGL‑Ansätzen, während es gleichzeitig die Rechenlast reduziert und die Interpretierbarkeit verbessert. Das Verfahren beweist, dass dynamische, modell‑gesteuerte Kondensation ein vielversprechender Weg ist, um federated Text‑Graphen effizient und nachvollziehbar zu trainieren.