LLM-System beschleunigt GNN-Inferenz auf großen Wissensgraphen um 28-fach
Ein neues Verfahren namens KG-WISE nutzt große Sprachmodelle (LLMs), um Graph Neural Networks (GNNs) effizienter auf riesigen Wissensgraphen (KGs) einzusetzen. Durch die Zerlegung von vortrainierten GNN-Modellen in feinkörnige Komponenten kann KG-WISE nur die für eine bestimmte Abfrage relevanten Teile laden und ausführen.
Die LLMs generieren dabei wiederverwendbare Abfragevorlagen, die semantisch passende Teilgraphen extrahieren. So wird die Inferenz nicht nur schneller, sondern auch kompakter, weil nur die benachbarten Knoten und die zugehörigen Modellkomponenten geladen werden.
In Tests mit sechs großen KGs – bis zu 42 Millionen Knoten und 166 Millionen Kanten – erzielte KG-WISE eine bis zu 28-fache Beschleunigung der Inferenz und einen 98 %igen Rückgang des Speicherbedarfs im Vergleich zu aktuellen Systemen. Gleichzeitig bleibt die Genauigkeit erhalten oder sogar verbessert, sowohl bei kommerziellen als auch bei Open-Weight-LLMs.