Reise-Wellen als neue Positionskodierung für Transformer: RollPE schlägt RoPE
Transformers benötigen Positionskodierungen, um die inhärente Permutationsinvarianz der Selbstaufmerksamkeit zu kompensieren. Traditionell werden absolute sinusförmige Einbettungen oder lernbare Positionsvektoren eingesetzt, während neuere Ansätze relative Kodierungen bevorzugen, um Translation‑Equivarien besser abzubilden. In der aktuellen Studie wird RollPE vorgestellt, ein innovatives Verfahren, das auf reisenden Wellen basiert und durch eine kreisförmige Roll‑Operation die Query‑ und Key‑Tensoren verschiebt. Dadurch entsteht ein relativer Phasen‑Schift zwischen Positionen, sodass die Aufmerksamkeit als Funktion der Positionsdifferenz berechnet wird.