Neues exemplar-freies Lernmodell steigert kontinuierliches Lernen um 55% bei CIFAR-10
Ein neu entwickeltes, exemplar-freies Lernverfahren setzt neue Maßstäbe im kontinuierlichen Lernen. Das System nutzt zwei ergänzende, vollständig differenzierbare Speicher: Der erste erfasst gemeinsame Merkmale, die über alle Aufgaben hinweg genutzt werden können, während der zweite diese gemeinsamen Merkmale kombiniert, um diskriminierende Eigenschaften zu erlernen, die für einzelne Proben spezifisch sind. Durch diese Aufteilung kann das Netzwerk eigenständig latente Repräsentationen für jede Aufgabe entwickeln.
Für jede neue Aufgabe passt ein spezielles Memory‑Adjustment‑Modul die Speicher an. Es entfernt gezielt nicht mehr benötigte Slots und erweitert die Kapazität nur minimal, um neue Konzepte aufzunehmen. Zusätzlich sorgt eine orthogonale Regularisierung dafür, dass die neuen Speicherkomponenten geometrisch von den bereits gespeicherten getrennt bleiben, wodurch Interferenzen vermieden werden.
In umfangreichen Tests auf CIFAR‑10, CIFAR‑100 und Tiny‑ImageNet übertrifft das Verfahren 14 führende Methoden im class‑incremental learning. Die erreichten Endgenauigkeiten betragen 55,13 % für CIFAR‑10, 37,24 % für CIFAR‑100 und 30,11 % für Tiny‑ImageNet. Ergänzende Analysen zeigen, dass das Modell die durchschnittliche Leistung über aufeinanderfolgende Aufgaben hinweg steigert und dabei Feature‑Extraktionsergebnisse liefert, die nahezu dem theoretischen Maximum entsprechen.