FloydNet: Neues Lernparadigma für globale graphbasierte Schlussfolgerungen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der künstlichen Intelligenz gilt die Entwicklung von Modellen, die komplexe, mehrstufige Schlussfolgerungen durchführen können, als zentrales Ziel. Traditionelle Graph Neural Networks (GNNs) nutzen ein Nachrichtenübertragungsverfahren, das jedoch durch lokale Engpässe begrenzt ist und damit die globale, ganzheitliche Analyse erschwert.

FloydNet verfolgt einen anderen Ansatz: Es nutzt dynamische Programmierung (DP), um schrittweise einen globalen Zustandsvektor zu verfeinern. Statt lokal zu kommunizieren, hält das Modell einen Tensor aller Paarbeziehungen bereit und lernt einen generellen DP-Operator, der diesen kontinuierlich optimiert. Dadurch entsteht ein aufgabenorientierter relationaler Kalkül, der lange Streckenabhängigkeiten systematisch erfasst.

Die theoretische Analyse zeigt, dass FloydNet die 3-WL (2-FWL) Ausdruckskraft erreicht und in seiner erweiterten Form mit der k-FWL-Hierarchie übereinstimmt. Praktisch demonstriert das Modell Spitzenleistungen: Auf dem CLRS‑30‑Algorithmus-Benchmark erzielt es nahezu perfekte Ergebnisse (oft > 99 %), löst das allgemeine Travelling Salesman Problem (TSP) mit einer Erfolgsrate, die starke Heuristiken deutlich übertrifft, und erreicht die 3‑WL‑Testleistung auf dem BREC‑Benchmark. Diese Ergebnisse belegen, dass ein lernbasiertes DP‑Verfeinerungsverfahren eine leistungsfähige und praktikable Alternative zum Nachrichtenübertragungsmodell für hochrangige Graphschlüsse darstellt.

Ähnliche Artikel