<h1>LLMs mit Experten‑Mix verbessern Code‑Switch‑Übersetzung</h1> <p>Die Übersetzung von Sprachaufnahmen, die zwischen mehreren Sprachen hin und her wechseln, stellt die Forschung vor große Herausforderungen. Traditionell lernten Modelle diese komplexen semantischen Strukturen nur indirekt und benötigten teure, manuelle Anmerkungen.</p> <p>In der neuen Arbeit wird ein Large‑Language‑Model (LLM) mit einem Mixture‑of‑Experts (MoE) „Speech‑Projector“ kombiniert. Jeder Experte ist auf den semantischen Unterraum

arXiv – cs.AI Original
Anzeige