Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Hyperdimensional Computing”
Forschung

<h1>PathHD: Hypervektoren statt neuronaler Encoder – KG-Logik mit nur einem LLM-Aufruf</h1> <p>Neutrale, strukturierte Wissensgraphen (KGs) werden in der KI immer wichtiger, doch die üblichen Verfahren, die auf schweren neuronalen Encodern oder wiederholten LLM-Aufrufen basieren, kosten viel Zeit, GPU-Ressourcen und bleiben oft undurchsichtig. Mit dem neuen Ansatz <strong>PathHD</strong> wird das Spiel geändert: Hyperdimensional Computing (HDC) ersetzt die neuronalen Pfadbewertungen, und ein einziger LLM-Au

arXiv – cs.LG
Forschung

<h1>LogHD: Logarithmische Klassenskalierung erhöht Robustheit und Effizienz von HDC</h1> <p>Hyperdimensional Computing (HDC) ist ideal für Systeme mit begrenztem Speicher, geringer Energieaufnahme und hoher Zuverlässigkeit. Das klassische „ein Prototyp pro Klasse“-Modell benötigt jedoch Speicher proportional zu <em>O(C·D)</em>, wobei <em>C</em> die Anzahl der Klassen und <em>D</em> die Dimensionalität der Hypervektoren ist. Diese Speicherintensität limitiert die Einsatzmöglichkeiten von HDC in ressourcenbes

arXiv – cs.LG