Fine-tuning Large Language Models with Limited Data: A Survey and Practical Guide
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
The Choice of Divergence: A Neglected Key to Mitigating Diversity Collapse in Reinforcement Learning with Verifiable Reward
arXiv – cs.AI
•
ThinkSafe: Selbstgenerierte Sicherheitsausrichtung für große Rechenmodelle
arXiv – cs.LG
•
AGZO: Aktivitätsgesteuerte Zeroth-Order-Optimierung verbessert LLM-Fine‑Tuning
arXiv – cs.AI
•
RISE: Real‑to‑Virtual Trajektorien reduzieren Intentionabweichungen bei Tool‑Agenten
arXiv – cs.LG
•
SA^2GFM: Graph‑Modelle mit strukturorientierter Augmentation erhöhen Robustheit
arXiv – cs.AI
•
Große Sprachmodelle lernen Belohnungs-Hacking: Risiko von Missalignment