ERBP: Ein neues Prinzip gegen Modellkollaps in selbstlernenden Systemen
Ein neues Konzept namens Entropy‑Reservoir Bregman Projection (ERBP) verspricht, das langjährige Problem des Modellkollapses in selbstgenerierenden Lernsystemen endlich zu lösen. Durch die Kombination von Informationstheorie und Bregman‑Projection‑Methoden liefert ERBP eine einheitliche Erklärung dafür, warum Modelle wie Sprachgeneratoren, GANs und Reinforcement‑Learning‑Agenten in der Regel in repetitive Muster oder Modus‑Verluste abrutschen.
Der Kern des Ansatzes liegt in der Betrachtung des Lernprozesses als stochastische Folge von Bregman‑Projektionen im Raum der Wahrscheinlichkeitsverteilungen. Ohne externe Einflüsse führt die zufällige Stichprobenrauschen dazu, dass das System immer wieder auf einen immer kleiner werdenden empirischen Support projiziert wird. Das Ergebnis ist ein exponentieller Entropieverlust, der letztlich zum Kollaps des Modells führt.
ERBP führt ein sogenanntes Entropy Reservoir ein – eine hoch‑Entropie‑Verteilung, die bei jeder Projektion mit eingemischt wird. Diese gezielte Entropie‑Fluss‑Einführung stabilisiert die Dynamik des Lernprozesses. Die Theorie liefert drei zentrale Erkenntnisse: (i) eine notwendige Bedingung für den Kollaps, (ii) eine hinreichende Bedingung, die ein nicht‑triviales Entropiefeld garantiert, und (iii) geschlossene Formeln für die Stabilitätsraten, die ausschließlich von der Stichprobengröße und den Konvexitäts‑ bzw. Lipschitz‑Konstanten des Bregman‑Generators abhängen.
Experimentelle Validierungen auf großen Sprachmodellen, Soft‑Actor‑Critic‑Agenten und GAN‑Optimierungen bestätigen die Vorhersagen von ERBP. Die Ergebnisse zeigen, dass bereits etablierte Stabilisierungshilfen – wie das Mischen mit realen Daten, Entropie‑Bonusse oder Retrieval‑Augmented Generation – im Wesentlichen dieselbe Wirkung haben wie das Entropy Reservoir. Damit bietet ERBP einen klaren, mathematisch fundierten Rahmen, um die Skalierbarkeit selbstreferenzieller Lernsysteme nachhaltig zu verbessern.