Boosted GFlowNets: Mehr Exploration durch sequentielles Lernen
Generative Flow Networks (GFlowNets) sind leistungsstarke Sampler für zusammengesetzte Objekte, die per Definition proportional zu einem gegebenen, nichtnegativen Reward abtasten. In der Praxis stoßen sie jedoch häufig an ihre Grenzen: Pfade zu leicht erreichbaren Regionen dominieren das Training, während schwer erreichbare Modi kaum Gradientensignale erhalten und damit unzureichend abgedeckt werden.
Die neue Methode namens Boosted GFlowNets löst dieses Ungleichgewicht, indem sie ein Ensemble von GFlowNets sequentiell trainiert. Jeder Booster optimiert einen Residual-Reward, der die bereits von vorherigen Modellen erfasste Masse kompensiert. Durch dieses Residual‑Prinzip werden Lernsignale in bislang unterexplorierten Bereichen wieder aktiviert. Unter milden Annahmen garantiert die Methode eine monotone Nicht‑Verringungs‑Eigenschaft: Das Hinzufügen eines Boosters kann die erlernte Verteilung nicht verschlechtern und verbessert sie in der Regel.
Experimentelle Tests zeigen, dass Boosted GFlowNets die Exploration und die Stichprobenvielfalt bei multimodalen synthetischen Benchmarks sowie bei Peptid‑Design‑Aufgaben deutlich steigern. Gleichzeitig bleibt die Stabilität und die Einfachheit des klassischen Trajektorien‑Balance‑Trainings erhalten, was die Methode zu einer attraktiven Erweiterung für praktische Anwendungen macht.