Cellpose-Studie zeigt: Weniger Daten, weniger Vergessen – Effiziente Bildsegmentierung

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

In einer neuen Untersuchung zum Thema „Data Efficiency and Transfer Robustness in Biomedical Image Segmentation“ wird aufgezeigt, wie vielversprechend die Optimierung von Trainingsdaten für generelle Bildsegmentierungsmodelle wie Cellpose ist. Durch die Einführung einer einfachen Dataset‑Quantisierung (DQ) lassen sich kompakte, aber dennoch vielfältige Trainingsuntergruppen bilden, die die Leistung bei der Segmentierung von Zellbildern nahezu unverändert lassen.

Die Experimente auf dem Cyto‑Datensatz demonstrieren, dass bereits 10 % der ursprünglich verfügbaren Daten ausreichen, um die Segmentierungsleistung zu erreichen, die mit 100 % erzielt wird. Dies weist auf eine erhebliche Redundanz im Datensatz hin und eröffnet die Möglichkeit, Modelle mit minimalen Annotationsaufwänden zu trainieren. Die Analyse des latenten Raums mittels MAE‑Embeddings und t‑SNE bestätigt, dass die DQ‑ausgewählten Bildausschnitte eine größere Feature‑Diversität aufweisen als zufällige Stichproben.

Ein weiterer Schwerpunkt der Studie ist das Phänomen des katastrophalen Vergessens bei der Domänenübertragung. Beim Feintuning von Cellpose auf spezialisierte Bilddomänen fällt die Leistung im Quellbereich deutlich ab. Die Autoren zeigen, dass ein selektiver Replay‑Ansatz, bei dem lediglich 5–10 % der Quell‑Daten wieder eingeführt werden, die ursprüngliche Leistung effektiv wiederherstellt, ohne die Anpassung an die Zieldomäne zu behindern. Darüber hinaus verbessert eine gezielte Reihenfolge der Trainingsdomänen die Generalisierung und reduziert das Vergessen in mehrstufigen Transfer‑Szenarien.

Die Ergebnisse unterstreichen die Bedeutung datenzentrierter Ansätze in der biomedizinischen Bildsegmentierung und legen nahe, dass durch gezielte Datenreduktion und kontrolliertes Replay sowohl Trainingszeit als auch Annotationsaufwand erheblich gesenkt werden können, ohne die Modellleistung zu beeinträchtigen.

Ähnliche Artikel