Neue Flow‑Matching‑Methode für Offline‑RL mit diskreten Aktionen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Forscher haben Flow Matching auf diskrete Aktionsräume ausgeweitet, um Offline‑Reinforcement‑Learning in breiteren Szenarien zu ermöglichen. Durch die Kombination von Diffusionsmodellen und Flow Matching entsteht ein leistungsstarkes generatives Verfahren, das bisher vor allem in kontinuierlichen Aktionsräumen erfolgreich war.

Anstelle von kontinuierlichen Flows nutzt das neue Verfahren kontinuierliche Zeit‑Markov‑Ketten, die mit einem Q‑gewichteten Flow‑Matching‑Ziel trainiert werden. Dieses Ziel berücksichtigt die erwarteten Belohnungen und führt zu einer effizienten Politikschätzung, die speziell für diskrete Aktionen optimiert ist.

Für Mehragentensysteme wird die exponentielle Wachstumsrate der gemeinsamen Aktionsräume durch eine faktorisierten bedingten Pfadstruktur reduziert. Dadurch bleibt die Berechnung auch bei vielen Agenten handhabbar, ohne die Qualität der erlernten Politik zu beeinträchtigen.

Theoretisch wird gezeigt, dass die Optimierung des Ziels unter idealen Bedingungen die optimale Politik zurückgewinnt. Praktische Tests in hochdimensionalen Steuerungsaufgaben, multimodaler Entscheidungsfindung und sich dynamisch ändernden Präferenzen demonstrieren die Robustheit des Ansatzes und seine Vielseitigkeit in realen Szenarien.

Durch Aktionsquantisierung lässt sich das diskrete Framework sogar auf kontinuierliche Steuerungsprobleme übertragen, was einen flexiblen Kompromiss zwischen Repräsentationskomplexität und Leistung ermöglicht. Damit eröffnet die neue Flow‑Matching‑Methode einen vielversprechenden Weg für Offline‑RL in einer breiten Palette von Anwendungen.

Ähnliche Artikel