Trajektorienwert abhängig vom Lernalgorithmus – Policy‑Gradient‑Erkenntnisse
In einer neuen Untersuchung auf arXiv (2511.07878v1) wird gezeigt, dass der Wert einer Trajektorie in der Policy‑Gradient‑Kontrolle stark vom gewählten Lernalgorithmus abhängt. Durch die Anwendung von Trajectory Shapley in einem unsicheren LQR‑Modell konnten die Autoren eine klare negative Korrelation zwischen der Persistenz der Excitation (PE) und dem marginalen Wert unter dem klassischen REINFORCE‑Algorithmus feststellen (r ≈ –0.38).