Verteilte Konzeptbasierte Modelle: Erklärbare Modelle mit dezentraler Supervision
Konzeptbasierte Modelle (CBMs) machen Deep‑Learning‑Vorhersagen nachvollziehbar, indem sie auf leicht verständliche Konzepte zurückgreifen. In der Praxis sind jedoch die dafür benötigten Konzeptannotationen teuer und selten in großem Umfang verfügbar, besonders wenn Daten aus einer einzigen Quelle stammen.
Federated Learning (FL) bietet hier eine Lösung: mehrere Institutionen können gemeinsam trainieren, ohne ihre Rohdaten zu teilen, und dabei die vorhandenen Konzeptannotationen bündeln. Das Problem ist, dass FL bislang keine interpretierbaren Modellparadigmen unterstützt. CBMs setzen auf einen festen Konzeptraum und eine vorgegebene Architektur, während echte FL‑Umgebungen heterogen, nicht stationär und ständig im Wandel sind – neue Partner treten ein und bringen neue Supervision mit.
Die vorgestellte Methode, Federated Concept‑Based Models (F‑CMs), verbindet diese beiden Ansätze. F‑CMs sammeln konzeptbezogene Informationen über alle Institutionen hinweg, passen die Modellarchitektur dynamisch an veränderte Supervision an und schützen dabei die Privatsphäre der einzelnen Datenbesitzer. Dadurch bleibt die Modellleistung erhalten und die Möglichkeit zur gezielten Intervention erhalten.
Experimentelle Ergebnisse zeigen, dass F‑CMs die Genauigkeit und die Wirksamkeit von Interventionen bei vollständiger Konzeptsupervision reproduzieren und gleichzeitig gegenüber nicht adaptiven Federated‑Baselines überlegen sind. Besonders neuartig ist, dass F‑CMs interpretierbare Vorhersagen für Konzepte liefern können, die einer bestimmten Institution nicht vorliegen – ein entscheidender Fortschritt gegenüber bisherigen Ansätzen.