Stitching: Asynchrone Modellzusammenführung steigert Leistung ohne Datenaustausch
In der Welt des Deep Learning ist der Zugang zu umfangreichen, vielfältigen Datensätzen entscheidend für Spitzenleistungen. Gerade im medizinischen Bereich sind die Daten jedoch häufig fragmentiert und können nicht frei geteilt werden. Während federated learning eine synchronisierte Zusammenarbeit mehrerer Parteien erfordert, untersucht diese neue Studie eine asynchrone Alternative: Modelle, die bereits eigenständig trainiert wurden, werden lediglich ausgetauscht.