Neues Framework Step‑E verbessert Deep‑Learning trotz verrauschter Labels
In der realen Welt gesammelte Trainingsdaten enthalten häufig fehlerhafte Labels und Ausreißer, die die Leistung von tiefen neuronalen Netzen stark beeinträchtigen. Traditionell werden solche Daten erst vor dem Training bereinigt, doch diese zweistufigen Pipelines nutzen weder das Feedback des Modells noch passen sich unbekannten Rauschmustern an.
Das neue Framework Step‑E löst dieses Problem, indem es die Auswahl von Trainingsbeispielen und das Lernen des Modells in einen einzigen Optimierungsprozess integriert. Bei jedem Epoch wird die Verlustfunktion verwendet, um die Beispiele zu bewerten; anschließend werden schrittweise die hochverlustigen Instanzen aus den Gradientenupdates ausgeschlossen. Dieser Online‑Curriculum‑Ansatz konzentriert sich zunächst auf leicht zu lernende, konsistente Beispiele und ignoriert schließlich persistente Ausreißer.
Auf dem verrauschten Datensatz CIFAR‑100N steigert Step‑E die Testgenauigkeit eines ResNet‑18 von 43,3 % auf 50,4 % und übertrifft damit gängige Methoden wie Verlust‑Trunkierung, selbstgesteuertes Lernen und One‑Shot‑Filterung. Im Vergleich zum Clean‑Label‑Oracle liegt der Unterschied bei nur 10 %. Bei CIFAR‑10N verbessert Step‑E die Genauigkeit von 83,9 % auf 85,3 % und kommt dem Oracle von 85,9 % sehr nahe, während der zusätzliche Trainingsaufwand moderat bleibt.