Neues Arbitration-Control für DQN-Ensembles verbessert kontinuierliches RL
Ein neues Verfahren namens ACED‑DQN (Arbitration Control for an Ensemble of Diversified DQN variants) wurde auf arXiv veröffentlicht und verspricht, das Problem des „catastrophic forgetting“ in Deep‑Reinforcement‑Learning‑Modellen zu lösen. Durch die Kombination von mehreren DQN‑Varianten, die gezielt unterschiedliche Wertfunktionen lernen, und einem Arbitration‑Control, das Agenten mit höherer Zuverlässigkeit priorisiert, kann das System kontinuierlich Wissen erwerben und gleichzeitig alte Fähigkeiten bewahren.