Sparse Memory Finetuning: LLMs lernen kontinuierlich ohne Vergessensrisiko
Neues Forschungspapier aus dem arXiv-Repository zeigt, wie große Sprachmodelle (LLMs) nach dem Training weiter an neue Informationen angepasst werden können, ohne dabei bereits erlernte Fähigkeiten zu verlieren. Der Ans…