Graphbasierte CBMs steigern Bildklassifikation und Interpretierbarkeit
Concept‑Bottleneck‑Models (CBMs) ermöglichen es, tiefen neuronalen Netzwerken eine klare, konzeptbasierte Interpretation zu geben und gezielte Eingriffe vorzunehmen. Dabei gehen die bisherigen Modelle jedoch davon aus, dass die Konzepte untereinander unabhängig sind – ein Ansatz, der die natürlichen Zusammenhänge zwischen den Konzepten ignoriert.
Mit der neuen Variante GraphCBM wird dieses Problem adressiert: Durch die Konstruktion latenter Konzeptgraphen werden die Beziehungen zwischen den Konzepten explizit modelliert. Diese Graphen lassen sich nahtlos in bestehende CBMs integrieren, wodurch die Modelle nicht nur ihre Interpretierbarkeit beibehalten, sondern sogar verbessern.
Experimentelle Ergebnisse auf realen Bildklassifikationsaufgaben zeigen, dass GraphCBMs drei wesentliche Vorteile bieten: Erstens erzielen sie eine überlegene Klassifikationsleistung, während sie gleichzeitig mehr Strukturdaten zu den Konzepten liefern. Zweitens ermöglichen die Graphen effektivere Interventionen, da Änderungen an einem Konzept automatisch die verbundenen Konzepte berücksichtigen. Drittens bleiben die Modelle robust gegenüber unterschiedlichen Trainingsbedingungen und Architekturen.
GraphCBMs stellen damit einen bedeutenden Fortschritt dar, der die Brücke zwischen hoher Genauigkeit und nachvollziehbarer Modellinterpretation weiter stärkt.