GrADS: Gradient-basierte Datenauswahl steigert LLM-Fine‑Tuning‑Effizienz

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die neueste Veröffentlichung auf arXiv (2511.08620v1) präsentiert GrADS, einen selbstadaptiven, gradienten‑bewussten Ansatz zur Auswahl von Trainingsdaten für das supervised fine‑tuning (SFT) großer Sprachmodelle (LLMs). Durch die Analyse der Gradienten aus einer Vortrainingsphase identifiziert GrADS gezielt die Beispiele, die den Lernprozess am stärksten fördern, und reduziert damit die Menge an benötigten Daten erheblich.

Im Vergleich zu herkömmlichen SFT‑Methoden, die oft große Datenmengen erfordern und das Risiko des katastrophalen Vergessens (CF) bergen, konnte GrADS in umfangreichen Experimenten mit Modellen aus den Bereichen Medizin, Recht und Finanzen gezeigt werden, dass bereits 5 % der ausgewählten Daten die Leistung von Modellen übertrifft, die mit dem gesamten Datensatz fein‑getuned wurden. Bei einer Erhöhung auf 50 % der Daten steigen die Ergebnisse weiter, während gleichzeitig das katastrophale Vergessen signifikant reduziert wird.

Die Autoren planen, den Code von GrADS in Kürze öffentlich zugänglich zu machen, um die Forschungsgemeinschaft bei der effizienten und zielgerichteten Anpassung von LLMs an spezialisierte Domänen zu unterstützen. Diese Entwicklung verspricht, die Kosten und den Aufwand für das Fine‑Tuning großer Sprachmodelle drastisch zu senken und gleichzeitig die Qualität der Domänenanpassung zu erhöhen.

Ähnliche Artikel