Monkey Jump: Effizientes Multi-Task-Lernen ohne zusätzliche Parameter
Die neueste Veröffentlichung auf arXiv (2601.06356v1) stellt Monkey Jump vor – eine Methode, die die Vorteile von Mixture-of-Experts (MoE) für parameter‑effizientes Fine‑Tuning nutzt, ohne zusätzliche trainierbare Parameter einzuführen. Dadurch bleibt das Ziel der Effizienz erhalten, während gleichzeitig eine token‑weise Spezialisierung ermöglicht wird.