SAMora: Self‑Supervised Training verbessert medizinische Bildsegmentierung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Das Segment Anything Model (SAM) hat in der medizinischen Bildsegmentierung bereits große Fortschritte erzielt, stößt jedoch bei wenigen gelabelten Daten an seine Grenzen. SAMora, ein neues Framework, nutzt hierarchisches Self‑Supervised Learning, um diese Lücke zu schließen. Durch ergänzende Lernziele auf Bild-, Patch‑ und Pixelebene erfasst SAMora medizinisches Wissen in mehreren Auflösungsebenen und steigert die Segmentierungsleistung signifikant.

Ein zentrales Element von SAMora ist der HL‑Attn‑Modul, der die Multi‑Scale‑Features aus den verschiedenen Ebenen zusammenführt, ohne deren individuelle Eigenschaften zu verlieren. Dadurch kann das Modell die Komplementarität der hierarchischen Informationen voll ausnutzen und gleichzeitig die Komplexität gering halten.

Die Kompatibilität mit verschiedenen SAM‑Varianten – darunter SAM2, SAMed und H‑SAM – macht SAMora zu einer vielseitigen Ergänzung für die medizinische Bildanalyse. In Experimenten auf den Datensätzen Synapse, LA und PROMISE12 übertrifft SAMora bestehende Varianten sowohl im Few‑Shot‑ als auch im vollständig überwachten Setting.

Ein besonders bemerkenswerter Vorteil ist die Reduktion der Feinabstimmungs‑Epochen um 90 %. Das bedeutet, dass Modelle schneller einsatzbereit sind und weniger Rechenressourcen benötigen. Der Quellcode ist öffentlich verfügbar und ermöglicht Forschern sowie Praktikern, die Vorteile von SAMora unmittelbar zu nutzen.