Neues selbstlernendes Diffusionsmodell steigert Brustkrebsklassifikation in UV-Bildern
Die präzise Bestimmung von Tumormargen während der Brustkrebs-Operation ist entscheidend, um gesundes Gewebe zu erhalten. Hier kommt die Deep Ultraviolet Fluorescence Scanning Microscopy (DUV‑FSM) ins Spiel, die schnelle, hochauflösende Oberflächenbilder liefert. Ein Problem bleibt jedoch die geringe Menge an annotierten DUV‑Daten, die robuste Deep‑Learning‑Modelle erschwert.
Forscher haben ein selbstlernendes, latentes Diffusionsmodell (LDM) entwickelt, das mithilfe von Self‑Supervised Learning (SSL) hochwertige synthetische Bildausschnitte erzeugt. Durch die Einbindung von Embeddings eines feinabgestimmten DINO‑Lehrers erhält das Modell reichhaltige semantische Details zellulärer Strukturen, die in die generierten Daten einfließen.
Die Kombination aus realen und synthetischen Patches dient dem Feintuning eines Vision Transformers (ViT). Durch Patch‑Prediction‑Aggregation wird die Klassifikation auf der Ebene ganzer Bildschichten (WSI) ermöglicht. In einer 5‑Fold‑Cross‑Validation erzielte das Verfahren eine Genauigkeit von 96,47 % und senkte den FID‑Score auf 45,72 – deutlich besser als klassische, bedingte Baselines.
Dieses innovative Vorgehen zeigt, wie selbstlernende Diffusionsmodelle die Bildanalyse im Brustkrebsbereich revolutionieren können, indem sie die Datenknappheit überwinden und gleichzeitig die diagnostische Genauigkeit erhöhen.