Task‑Vektoren und Gradienten: Neue Theorie erklärt Modell‑Merging
In der Welt der künstlichen Intelligenz hat sich die Technik des Task‑Arithmetics als unkompliziertes, aber äußerst wirkungsvolles Mittel zur Zusammenführung mehrerer feinabgestimmter Modelle etabliert. Trotz ihrer praktischen Erfolge fehlte bislang eine klare theoretische Erklärung dafür, warum und wann sie funktioniert. Das neue Papier aus dem arXiv‑Repository liefert genau das: eine rigorose theoretische Basis, die Task‑Vektoren mit den Gradienten der jeweiligen Aufgabenverluste verbindet.