Neues Lernverfahren macht neuronale Netze robust und erklärbar
Neuronale Netze zeigen eine starke Anfälligkeit gegenüber semantisch irrelevanten Transformationen. Bereits ein 75‑Millisekunden‑Phasenversatz im Elektrokardiogramm (ECG) senkt die latente Kosinus‑Ähnlichkeit von 1,0 au…
- Neuronale Netze zeigen eine starke Anfälligkeit gegenüber semantisch irrelevanten Transformationen.
- Bereits ein 75‑Millisekunden‑Phasenversatz im Elektrokardiogramm (ECG) senkt die latente Kosinus‑Ähnlichkeit von 1,0 auf 0,2, und Drehungen von Sensoren führen bei Inert…
- Die Ursache liegt laut den Autoren im „laissez‑faire“ Representation Learning: Latente Räume entwickeln sich unkontrolliert, solange die Aufgabenleistung zufriedenstelle…
Neuronale Netze zeigen eine starke Anfälligkeit gegenüber semantisch irrelevanten Transformationen. Bereits ein 75‑Millisekunden‑Phasenversatz im Elektrokardiogramm (ECG) senkt die latente Kosinus‑Ähnlichkeit von 1,0 auf 0,2, und Drehungen von Sensoren führen bei Inertialmessgeräten (IMUs) zu einem drastischen Rückgang der Aktivitätserkennung.
Die Ursache liegt laut den Autoren im „laissez‑faire“ Representation Learning: Latente Räume entwickeln sich unkontrolliert, solange die Aufgabenleistung zufriedenstellend bleibt. Um diesem Problem entgegenzuwirken, stellen die Forscher Structured Contrastive Learning (SCL) vor.
SCL teilt den latenten Raum in drei semantische Gruppen auf: invariant, variant und frei. Invariant‑Features bleiben unter vorgegebenen Transformationen unverändert, variant‑Features werden gezielt dazu angeregt, Transformationen zu differenzieren, und frei‑Features bewahren die Flexibilität für die eigentliche Aufgabe. Durch diese kontrollierten Push‑Pull‑Dynamiken erhält jede Dimension eine klare, interpretierbare Rolle.
Der Ansatz erfordert keine Änderungen an der Netzwerkarchitektur und lässt sich nahtlos in bestehende Trainingspipelines integrieren.
In Experimenten mit ECG‑Phase‑Invarianz und IMU‑Rotationsrobustheit zeigte SCL signifikante Verbesserungen: Die Ähnlichkeit im ECG stieg von 0,25 auf 0,91, während die WISDM‑Aktivitätserkennung 86,65 % Genauigkeit bei 95,38 % Rotations‑Konsistenz erreichte – ein klarer Vorsprung gegenüber herkömmlicher Datenaugmentation.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.