Neue Hyper-Coordinate-Modelle steigern Skalierbarkeit von INRs

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neuer Beitrag auf arXiv (2511.18387v1) präsentiert Hyper-Coordinate Implicit Neural Representations (HC‑INR), eine innovative Variante von Implicit Neural Representations (INRs), die die gängigen Engpässe bei der Signaldarstellung überwinden soll.

Traditionelle INRs, die mit Modellen wie SIREN, FFC oder KAN entwickelt wurden, stoßen häufig an zwei Grenzen: Erstens zwingt ein einzelnes MLP dazu, heterogene lokale Strukturen gleichmäßig zu modellieren, was zu einer Repräsentationsbottleneck führt. Zweitens fehlt eine hierarchische Struktur, die sich dynamisch an die Komplexität des Signals anpasst, was die Skalierbarkeit einschränkt.

HC‑INR löst diese Probleme, indem es ein hypernetwork‑gesteuertes Koordinatentransformationsmodul einführt. Dieses Modul warpt den Eingabebereich in einen entangled latent space, während ein kompakter Implicit‑Field‑Netzwerk das transformierte Signal mit deutlich geringerer Komplexität modelliert. Durch die hierarchische Hypernetwork‑Architektur werden die Koordinatentransformationen lokal auf Signalmerkmale abgestimmt, sodass die Repräsentationskapazität dynamisch zugewiesen wird.

Die Autoren zeigen theoretisch, dass HC‑INR die obere Grenze der darstellbaren Frequenzbänder erhöht und gleichzeitig die Lipschitz‑Stabilität bewahrt. Umfangreiche Experimente zu Bildanpassung, 3‑D‑Formrekonstruktion und weiteren Aufgaben demonstrieren die verbesserte Leistung und Skalierbarkeit des neuen Modells.

Ähnliche Artikel