Ein +1 % reicht nicht: Paired Bootstrap-Protokoll für kleine Verbesserungen
In der aktuellen Forschung im maschinellen Lernen berichten viele Arbeiten von 1‑2 % besserer Ergebnisse, basierend auf einem einzigen Lauf eines Modells. Diese scheinbaren Fortschritte sind jedoch stark von Zufallsseed, Datenreihenfolge und Implementierungsdetails abhängig und werden selten mit Unsicherheitsschätzungen oder Signifikanztests begleitet. Dadurch bleibt unklar, ob ein berichteter +1 % tatsächlich ein echter algorithmischer Gewinn ist oder lediglich Rauschen darstellt.
Um dieses Problem unter realistischen Rechenbudgets zu lösen, stellen die Autoren ein einfaches, PC‑freundliches Evaluationsprotokoll vor. Es kombiniert gepaarte Mehr‑Seed‑Runs, bias‑corrected and accelerated (BCa) Bootstrap‑Konfidenzintervalle und einen Sign‑Flip‑Permutationstest auf den per‑Seed‑Differenzen. Das Verfahren ist bewusst konservativ und soll als Schutzmechanismus gegen übertriebene Behauptungen dienen.
Die Methode wurde auf CIFAR‑10, CIFAR‑10N und AG News getestet, wobei synthetische Szenarien ohne Verbesserung, mit kleiner und mit mittlerer Verbesserung simuliert wurden. Einzelne Läufe und unpaarte t‑Tests deuten häufig auf signifikante Gewinne von 0,6‑2,0 % hin, besonders bei Textdaten. Mit lediglich drei Seeds erkennt das gepaarte Protokoll jedoch nie eine Signifikanz in diesen Fällen.
Die Autoren argumentieren, dass ein solch konservatives Evaluationsschema die sicherere Standardwahl ist, wenn nur wenige Läufe möglich sind und die zu bewertenden Verbesserungen klein sind. Dieses Vorgehen bietet Forschern einen robusten Rahmen, um echte Fortschritte von zufälligem Rauschen zu unterscheiden.