Skalierbares Multiagenten-Lernen durch kollektive Einflussschätzung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Multiagenten‑Reinforcement‑Learning (MARL) gilt als Schlüsseltechnologie für komplexe Kooperationsaufgaben, stößt jedoch häufig an die Grenzen der Kommunikationsinfrastruktur in realen Robotersystemen.

Aktuelle MARL‑Ansätze setzen auf Netzwerk‑Estimatoren, die das Verhalten anderer Agenten modellieren und deren Aktionen vorhersagen. Diese Netzwerke wachsen jedoch mit der Agentenzahl, was die Skalierbarkeit stark einschränkt.

Die vorgestellte Methode nutzt ein Collective Influence Estimation Network (CIEN), das die kollektive Wirkung aller Agenten auf das Zielobjekt explizit erfasst. Dadurch kann jeder Agent kritische Interaktionsinformationen allein aus seinen lokalen Beobachtungen und dem Zustand des Zielobjekts ableiten, ohne explizite Aktionsaustausche.

CIEN verhindert eine Netzwerk‑Expansion, wenn die Teamgröße zunimmt, und ermöglicht die nahtlose Integration neuer Agenten ohne Änderungen an bestehenden Strukturen – ein entscheidender Schritt zur Skalierbarkeit großer Systeme.

Experimentelle Tests mit Soft Actor‑Critic (SAC) zeigen, dass das Verfahren stabile und effiziente Koordination unter stark eingeschränkter Kommunikation liefert, was die Eignung für praktische Robotik‑Anwendungen unterstreicht.

Ähnliche Artikel