Transformer-Architektur als implizite multinomiale Regression interpretiert
In der aktuellen Forschung zur mechanistischen Interpretierbarkeit von KI-Modellen wird ein neues Licht auf die Rolle von Attention in Transformer‑Netzwerken geworfen. Obwohl Attention das Herzstück moderner Sprachmodelle bildet, bleiben seine mathematischen Grundlagen und seine Verbindung zu Phänomenen wie Feature‑Polysemie, Superposition und Modellleistung weitgehend unklar.