THDC: Hyperdimensional Computing neu trainiert mit Backpropagation

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die neueste Veröffentlichung auf arXiv (2602.00116v1) stellt THDC – Trainable Hyperdimensional Computing – vor, ein Verfahren, das Hyperdimensional Computing (HDC) durch Backpropagation vollständig trainierbar macht. Traditionelles HDC nutzt ultra‑hohe Dimensionalitäten und zufällig initialisierte Hypervektoren, was die Speicher‑ und Lernkapazität einschränkt. THDC ersetzt diese statischen Vektoren durch lernbare Einbettungen und integriert ein ein‑schichtiges binäres neuronales Netzwerk, um Klassendarstellungen zu optimieren.

Durch diese Innovation wird die Dimensionalität von 10.000 auf nur 64 reduziert, ohne dass die Genauigkeit leidet. In Tests auf den Standard‑Datensätzen MNIST, Fashion‑MNIST und CIFAR‑10 erreicht THDC gleichwertige oder sogar bessere Ergebnisse als der aktuelle Stand der Technik im HDC‑Bereich. Das Ergebnis zeigt, dass end‑to‑end trainierbare HDC‑Modelle nicht nur effizienter, sondern auch leistungsfähiger sein können – ein bedeutender Fortschritt für energie‑beschränkte Geräte und Edge‑Computing‑Anwendungen.

Ähnliche Artikel