Beschleunigte Wasserstein-Gradientenflüsse optimieren mehrere Ziele gleichzeitig

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Wissenschaftler haben einen neuen Algorithmus entwickelt, der die Optimierung mehrerer Ziele in der Wahrscheinlichkeitsverteilung beschleunigt. Der Ansatz, der auf Wasserstein-Raum basiert, nutzt die geometrische Struktur dieses Raums, um mehrere Zielfunktionen gleichzeitig zu optimieren.

Der neue Algorithmus, genannt A‑MWGraD, baut auf dem bereits bestehenden Multiple Wasserstein Gradient Descent (MWGraD) auf und integriert Nesterovs Beschleunigung. Durch die Analyse der kontinuierlichen Dynamik konnte gezeigt werden, dass A‑MWGraD zu schwach Pareto‑optimalen Punkten konvergiert.

Die theoretischen Ergebnisse sind beeindruckend: Für geodätisch konvexe Ziele erreicht A‑MWGraD eine Konvergenzrate von O(1/t²), während bei β‑stark geodätisch konvexen Zielen ein exponentielles Abschwellen mit O(e^{‑√β t}) erzielt wird. Das ist ein deutlicher Fortschritt gegenüber der O(1/t)-Rate des ursprünglichen MWGraD.

Zur praktischen Umsetzung wurde ein kernelbasierter Diskretisierungsschema eingeführt. In numerischen Experimenten zeigte sich, dass A‑MWGraD die Konvergenzgeschwindigkeit und die Stichprobenqualität bei Multi‑Target‑Sampling-Aufgaben deutlich übertrifft. Diese Fortschritte eröffnen neue Möglichkeiten für die effiziente Lösung komplexer Optimierungsprobleme in der Wahrscheinlichkeitsverteilung.

Ähnliche Artikel