GrADS: Gradient-basierte Datenauswahl steigert LLM-Fine‑Tuning‑Effizienz
Die neueste Veröffentlichung auf arXiv (2511.08620v1) präsentiert GrADS, einen selbstadaptiven, gradienten‑bewussten Ansatz zur Auswahl von Trainingsdaten für das supervised fine‑tuning (SFT) großer Sprachmodelle (LLMs)…