Federated Learning für MRI‑zu‑CT: Encoder‑Freezing spart bis zu 23 % Energie

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Federated Learning (FL) bietet die Chance, medizinische KI‑Modelle gemeinsam zu trainieren, ohne dass sensible Patientendaten zentralisiert werden. Doch die hohen Rechen- und Energieanforderungen von FL schließen oft kleinere Kliniken aus und verschärfen damit bestehende Ungleichheiten im Gesundheitswesen.

Um diesem Problem entgegenzuwirken, wurde eine Green‑AI‑orientierte adaptive Layer‑Freezing‑Strategie entwickelt. Dabei werden die Encoder‑Gewichte eines tiefen Lernmodells selektiv eingefroren, wenn die relative Veränderung der Gewichte von Runde zu Runde unter einem festgelegten Schwellenwert bleibt. Ein patience‑basierter Mechanismus sorgt dafür, dass das Einfrieren erst erfolgt, wenn die Updates konsequent minimal sind.

Die Methode wurde auf verschiedenen federated Architekturen zur Umwandlung von Magnetresonanztomographie (MRI) in Computertomographie (CT) getestet. Mit der CodeCarbon‑Bibliothek wurden Energieverbrauch und CO₂‑Äquivalente erfasst. Im Vergleich zu nicht eingefrorenen Modellen verringerte die adaptive Strategie die Trainingszeit, den Gesamtenergieverbrauch und die CO₂‑Emissionen um bis zu 23 %. Gleichzeitig blieb die Bildqualitätsleistung – gemessen am Mean Absolute Error – nahezu unverändert, wobei bei drei der fünf getesteten Architekturen keine signifikanten Unterschiede und bei zwei sogar Verbesserungen beobachtet wurden.

Diese Ergebnisse zeigen, dass adaptive Encoder‑Freezing nicht nur die ökologische Nachhaltigkeit von FL verbessert, sondern auch die Zugänglichkeit von KI‑Lösungen für ressourcenbegrenzte Einrichtungen erhöht. Damit wird ein wichtiger Schritt in Richtung gerechter und umweltfreundlicher medizinischer Forschung unternommen.

Ähnliche Artikel