GRASP: Neue PEFT-Methode reduziert Parameter um zehnfach und steigert Robustheit
In der Welt der großen vortrainierten Sprachmodelle gewinnt das Parameter‑Effiziente Fine‑Tuning (PEFT) immer mehr an Bedeutung. Statt das komplette Modell zu verändern, passen PEFT‑Ansätze nur einen kleinen Teil der Gewichte an und ermöglichen so skalierbare Anpassungen. Mit dem neuen Framework GRASP (GRouped Activation Shared Parameterization) wird dieses Prinzip noch weiter optimiert.