Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “heterogene Agenten”
Forschung

<h1>Heterogene Agenten: Trust-Region-Optimierung steigert MARL um 22,5 %</h1> <p>Multi-Agent Reinforcement Learning (MARL) erfordert koordinierte und stabile Policy‑Updates zwischen den Agenten. Die bisherige Methode, die Heterogeneous-Agent Trust Region Policy Optimization (HATRPO) genannt wird, nutzt die Kullback‑Leibler‑Divergenz (KL) als Trust‑Region‑Grenze, um das Training zu stabilisieren. Wenn allen Agenten jedoch dieselbe KL‑Schwelle zugewiesen wird, kann das zu langsamen, lokal optimalen Updates fü

arXiv – cs.AI