Enhanced‑FQL(λ): Fuzzy RL mit interpretierbaren Regeln und hoher Effizienz

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues Forschungsdokument stellt Enhanced‑FQL(λ) vor, ein Fuzzy‑Reinforcement‑Learning‑Framework, das die klassischen Fuzzy‑Q‑Learning‑Algorithmen um zwei bahnbrechende Komponenten erweitert: Fuzzified Eligibility Traces (FET) und Segmented Experience Replay (SER). Durch die Kombination dieser Elemente mit einer Fuzzified Bellman Equation (FBE) wird die Lernarchitektur für kontinuierliche Steuerungsaufgaben optimiert.

Im Gegensatz zu den üblichen tiefen neuronalen Netzen nutzt Enhanced‑FQL(λ) ein interpretierbares Regelwerk aus Fuzzy‑Logik. Diese Transparenz ermöglicht es, die Entscheidungsprozesse nachzuvollziehen, während die FET‑Methode eine stabile Mehrschritt‑Kreditzuweisung gewährleistet. Gleichzeitig sorgt das segmentbasierte Replay‑System für eine effiziente Nutzung des Speicherplatzes und erhöht die Stichproben­effizienz, ohne die Rechenleistung zu belasten.

Die theoretische Analyse bestätigt die Konvergenz des Ansatzes unter Standardannahmen. In umfangreichen Tests auf kontinuierlichen Kontroll‑Benchmarks übertrifft Enhanced‑FQL(λ) sowohl n‑Step‑Fuzzy‑TD als auch fuzzy SARSA(λ) hinsichtlich Stichproben­effizienz und Varianzreduktion. Gleichzeitig bleibt die Rechenkomplexität deutlich unter der von Deep‑RL‑Methoden wie DDPG, was die Lösung besonders für sicherheitskritische Anwendungen mit begrenzten Ressourcen attraktiv macht.

Ähnliche Artikel