Neues Lernverfahren macht neuronale Netze robust und erklärbar
Neuronale Netze zeigen eine starke Anfälligkeit gegenüber semantisch irrelevanten Transformationen. Bereits ein 75‑Millisekunden‑Phasenversatz im Elektrokardiogramm (ECG) senkt die latente Kosinus‑Ähnlichkeit von 1,0 auf 0,2, und Drehungen von Sensoren führen bei Inertialmessgeräten (IMUs) zu einem drastischen Rückgang der Aktivitätserkennung.
Die Ursache liegt laut den Autoren im „laissez‑faire“ Representation Learning: Latente Räume entwickeln sich unkontrolliert, solange die Aufgabenleistung zufriedenstellend bleibt. Um diesem Problem entgegenzuwirken, stellen die Forscher Structured Contrastive Learning (SCL) vor.
SCL teilt den latenten Raum in drei semantische Gruppen auf: invariant, variant und frei. Invariant‑Features bleiben unter vorgegebenen Transformationen unverändert, variant‑Features werden gezielt dazu angeregt, Transformationen zu differenzieren, und frei‑Features bewahren die Flexibilität für die eigentliche Aufgabe. Durch diese kontrollierten Push‑Pull‑Dynamiken erhält jede Dimension eine klare, interpretierbare Rolle.
Der Ansatz erfordert keine Änderungen an der Netzwerkarchitektur und lässt sich nahtlos in bestehende Trainingspipelines integrieren.
In Experimenten mit ECG‑Phase‑Invarianz und IMU‑Rotationsrobustheit zeigte SCL signifikante Verbesserungen: Die Ähnlichkeit im ECG stieg von 0,25 auf 0,91, während die WISDM‑Aktivitätserkennung 86,65 % Genauigkeit bei 95,38 % Rotations‑Konsistenz erreichte – ein klarer Vorsprung gegenüber herkömmlicher Datenaugmentation.