Schnelles Feintuning von LLMs: P‑GAP nutzt zeroth‑order Optimierung
In der Welt der großen Sprachmodelle (LLMs) hat sich das Feintuning mit zeroth‑order (ZO) Optimierung als vielversprechende Alternative zu herkömmlichen, gradientenbasierten Verfahren etabliert. Der Hauptvorteil liegt in einem deutlich geringeren Speicherbedarf, was besonders bei ressourcenintensiven Modellen von Bedeutung ist. Doch bisherige ZO‑Methoden leiden unter hoher Varianz bei der Gradientenabschätzung, was zu langsamer Konvergenz und suboptimalen Ergebnissen führt.