Neues Paradigma: Graph Neural Networks vereinheitlichen Deep Learning in der Medizin

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

Deep‑Learning‑Modelle haben in der medizinischen Bildgebung häufig Probleme, ihre Leistungsfähigkeit über verschiedene Domänen hinweg zu erhalten. Unterschiedliche Bildgebungsverfahren, Protokolle, Patientengruppen, Demografie und Geräte führen zu starken Verteilungsverschiebungen. In der Praxis muss jedes Krankenhaus oft eigene Modelle – mit unterschiedlichen Lernaufgaben, Breiten und Tiefen – trainieren, um den lokalen Daten gerecht zu werden. Während einige Einrichtungen klassische, euklidische Architekturen wie MLPs und CNNs einsetzen, benötigen andere nicht‑euklidische Strukturen wie Graph Neural Networks (GNNs) für unregelmäßige Daten wie Hirn‑Connectomes.

Um diese heterogenen Modelle kohärent über mehrere Datensätze hinweg zu trainieren und gleichzeitig die Generalisierbarkeit zu erhöhen, schlägt die neue Studie ein „Unified Learning“-Paradigma vor. Dabei wird jedes Modell in eine graphische Repräsentation überführt, sodass sie in einem gemeinsamen Graph‑Learning‑Raum zusammengeführt werden können. Ein zentraler, einheitlicher GNN (uGNN) steuert die Optimierung der einzelnen Modelle, indem er deren Parameter entkoppelt und gleichzeitig über Parameter‑Sharing und Wissensaustausch hinweg koordiniert.

Die Methode wurde an den Benchmarks MorphoMNIST sowie den MedMNIST‑Datensätzen PneumoniaMNIST und BreastMNIST getestet. Die Ergebnisse zeigen, dass das Unified Learning die Leistung deutlich steigert, wenn Modelle auf einzigartigen Verteilungen trainiert und anschließend auf gemischten Daten getestet werden. Die Robustheit gegenüber bislang unbekannten Daten mit großen Verteilungsverschiebungen ist damit signifikant verbessert.

Der Ansatz eröffnet neue Möglichkeiten, Deep‑Learning‑Modelle für die medizinische Bildgebung effizienter und verlässlicher zu gestalten, indem er die Stärken verschiedener Architekturen in einem einheitlichen Lernrahmen vereint.

Ähnliche Artikel