NaNs beschleunigen U-Net-Modelle für Neuroimaging
Moderne Deep‑Learning‑Modelle für die Neuroimaging‑Analyse bauen zunehmend auf riesigen Architekturen, was die Rechenleistung zu einer dauerhaften Herausforderung macht – selbst wenn die Hardware immer weiter verbessert wird.
Eine detaillierte Untersuchung der numerischen Unsicherheit in Convolutional Neural Networks (CNNs) hat gezeigt, dass viele Operationen auf Werten ausgeführt werden, die von Rauschen dominiert werden und kaum Einfluss auf die endgültigen Ausgaben haben. In einigen Modellen sind bis zu zwei Drittel aller Convolution‑Operationen redundant.
Um dieses Problem zu adressieren, wurden die Varianten „Conservative NaNs“ und „Aggressive NaNs“ entwickelt. Beide bauen auf Max‑Pooling bzw. Unpooling auf und ersetzen numerisch instabile Voxels durch NaNs. Dadurch können nachfolgende Schichten die Berechnung dieser Daten überspringen. Die Implementierung erfolgt in PyTorch und erfordert keine Änderungen an der bestehenden Architektur.
Die Methoden wurden an vier unterschiedlichen CNN‑Modellen getestet, die sowohl Neuroimaging‑ als auch Bildklassifikationsaufgaben abdecken. Für Eingaben, die mindestens 50 % NaNs enthalten, wurden konsistente Laufzeitverbesserungen beobachtet. Bei Datensätzen mit mehr als zwei Dritteln NaNs – ein häufiges Szenario in der Neuroimaging‑Forschung – erzielte die Conservative‑NaNs‑Variante einen durchschnittlichen Inferenz‑Speed‑up von 1,67‑fach. Die Methode reduziert die Anzahl der Convolution‑Operationen im Durchschnitt um 30 % und kann in bestimmten Schichten bis zu 64,64 % der Operationen überspringen. Aggressive NaNs kann bis zu 69,30 % der Convolutions überspringen, wirkt sich jedoch gelegentlich auf die Leistung aus.
Diese Ergebnisse zeigen, dass die gezielte Ausnutzung numerischer Unsicherheit dazu beitragen kann, überflüssige Berechnungen zu eliminieren und die Effizienz von CNN‑Modellen in der Neuroimaging‑Analyse signifikant zu steigern.