Sparse Adapter Fusion: Parameter sparen bei kontinuierlichem NLP‑Lernen
Kontinuierliches Lernen ist in der natürlichen Sprachverarbeitung entscheidend, um Modelle an sich wandelnde Daten anzupassen und das sogenannte „catastrophic forgetting“ zu verhindern. Trotz großer Fortschritte stoßen…