SEMDICE: Off-Policy-Algorithmus maximiert Zustandsentropie aus beliebigen Datensätzen
In der neuesten Veröffentlichung auf arXiv (2512.10042v1) präsentiert das Forschungsteam einen innovativen Ansatz namens SEMDICE, der die Entropie der Zustandsverteilung in Reinforcement‑Learning‑Umgebungen ohne aufgabenbezogene Belohnungen maximiert. Durch die Nutzung von Off‑Policy‑Daten kann SEMDICE eine robuste, stationäre Policy erzeugen, die die Vielfalt der erlebten Zustände erhöht und damit die Grundlage für spätere Aufgaben stärkt.