Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Softmax”
Forschung

Transformer‑Attention exakt lernen – neue Black‑Box‑Algorithmen <p>Mit einem brandneuen Ansatz können Forscher die Parameter von Transformer‑Modellen allein aus deren Output bestimmen. Der Schlüssel liegt in der Möglichkeit, beliebige Vektoren als Eingabe zu stellen und die daraus resultierenden reellen Werte zu beobachten – ein sogenannter Black‑Box‑Zugriff.</p> <p>Im einfachsten Fall, einem einzelnen Softmax‑Attention‑Regressor, liefert ein eleganter Algorithmus die exakten Parameter mit nur <code>O(d²)

arXiv – cs.LG