Sparse GNNs ermöglichen skalierbare RL-gestützte Generalisierte Planung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der Forschung zur Generalisierten Planung, die Deep Reinforcement Learning (RL) mit Graph Neural Networks (GNNs) kombiniert, hat ein neues Verfahren aus dem arXiv-Preprint „Scaling Up without Fading Out: Goal-Aware Sparse GNN for RL-based Generalized Planning“ gezeigt, dass die Skalierbarkeit massiv verbessert werden kann. Durch die Umstellung von vollständig verbundenen Graphen auf eine gezielt sparse, zielbewusste Repräsentation werden unnötige Kanten eliminiert und die relevanten lokalen Beziehungen zwischen Knoten präziser erfasst.

Die klassische Darstellung von Planungszuständen als dichte Graphen führt bei wachsenden Problemgrößen zu einer exponentiellen Zunahme an Speicherbedarf und einer Verflachung der informationsreichen Knotendetails. Das neue Ansatzmodell reduziert diese Probleme, indem es nur die für die Zielerreichung relevanten Kanten berücksichtigt und gleichzeitig räumliche Zielmerkmale explizit einbindet. Dadurch bleibt die Informationsdichte hoch, während die Rechenkomplexität deutlich sinkt.

Um die Wirksamkeit zu demonstrieren, wurden innovative Drohnenmissionen in einem PDDL-basierten Grid‑World-Umfeld entwickelt. Die Experimente zeigen, dass das sparse GNN bei größeren Gittergrößen, die mit dichten Graphen unhandhabbar wären, nicht nur effizienter arbeitet, sondern auch die Generalisierungsfähigkeit der erlernten Politiken und die Erfolgsraten signifikant steigert. Diese Ergebnisse legen einen soliden Grundstein für die Anwendung von RL‑basierten Planungsalgorithmen in realen, großskaligen Szenarien.

Ähnliche Artikel