Vortrainieren zahlt sich aus: Robustes Lernen ohne saubere Labels
Forscher haben gezeigt, dass ein vortrainierter Feature‑Extractor, der mit selbstüberwachtem Lernen (SSL) ohne Labels trainiert wird, anschließend in einem klassischen Supervised‑Training auf verrauschten Datensätzen zu deutlich robusteren Modellen führt – und das ohne einen sauberen Datensubset.