NTK-gesteuertes Implicit Neural Teaching beschleunigt INRs um 50 %
Implicit Neural Representations (INRs) nutzen neuronale Netze, um kontinuierliche Signale kompakt und resolutionsunabhängig darzustellen – ideal für Bilder, Audio und 3D‑Rekonstruktionen. Doch bei hochauflösenden Daten muss das Modell über Millionen von Koordinaten optimiert werden, was enorme Rechenkosten verursacht.
Die neue Methode NTK‑Guided Implicit Neural Teaching (NINT) löst dieses Problem, indem sie dynamisch die Koordinaten auswählt, die die größte globale Funktionsveränderung bewirken. Dabei greift NINT auf den Neural Tangent Kernel (NTK) zurück und bewertet jedes Beispiel anhand der Norm seiner NTK‑angereicherten Verlustgradienten. So werden sowohl Anpassungsfehler als auch die heterogene Einflussnahme einzelner Koordinaten berücksichtigt.
Durch diese doppelte Betrachtung konvergiert das Modell deutlich schneller als bei bestehenden Ansätzen. Umfangreiche Experimente zeigen, dass NINT die Trainingszeit um fast die Hälfte reduziert, ohne die Repräsentationsqualität zu beeinträchtigen – und setzt damit einen neuen Standard für beschleunigte, sampling‑basierte INRs.