Neues Grad-CAM-Verfahren visualisiert PCA- und SVM-Schichten in CNNs
Convolutional Neural Networks (CNNs) gelten als äußerst leistungsfähig bei Klassifikationsaufgaben, besonders wenn große Datensätze vorliegen. Trotz ihrer Effektivität bleiben sie häufig als „Black‑Box“ wahrgenommen, bis Visualisierungstechniken wie Grad‑CAM Einblick in die Entscheidungsprozesse geben.
Bei kleinen Trainingsmengen kann die Einbindung einer Principal Component Analysis (PCA) oder eines Support Vector Machine (SVM) Klassifikators die Leistung von CNNs deutlich steigern. Traditionelle Grad‑CAM‑Methoden lassen sich jedoch nicht direkt auf diese zusätzlichen Schichten anwenden, sodass die Aufmerksamkeitspunkte in PCA‑ und SVM‑Bereichen bislang unklar blieben.
Die neue Studie stellt die Verfahren PCA‑Grad‑CAM und SVM‑Grad‑CAM vor, die gezielt die Aufmerksamkeit in den jeweiligen Feature‑Vektoren bzw. Klassifikator‑Schichten visualisieren. Dazu wird die geschlossene Form des Jacobians von der letzten Convolution‑Schicht bis zu den PCA‑ bzw. SVM‑Schichten analytisch berechnet.
Die Autoren demonstrieren die Wirksamkeit ihrer Methoden an mehreren führenden Datensätzen und zeigen, dass die erzeugten Visualisierungen klare, interpretierbare Aufmerksamkeitsregionen liefern. Damit wird ein wichtiger Schritt zur Entwicklung von White‑Box‑Ansätzen für CNN‑Architekturen mit eingebetteten PCA‑ und SVM‑Komponenten erreicht.