Liquid AI Releases LFM2-8B-A1B: An On-Device Mixture-of-Experts with 8.3B Params and a 1.5B Active Params per Token
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
Optimale Lernraten-Strategien für große Sprachmodelle
arXiv – cs.LG
•
SonicMoE beschleunigt MoE-Modelle durch IO- und Tile-Optimierungen
arXiv – cs.LG
•
MixtureKit: Neues Open-Source-Framework für modulare Mixture-of-Experts-Modelle
arXiv – cs.LG
•
MoB: Expertenrouten als Auktion – Revolution im kontinuierlichen Lernen
arXiv – cs.AI
•
Regionale Gehirnexperten fusionieren: Modell für Alzheimer‑Diagnose
arXiv – cs.LG
•
Neues Diffusionsmodell verbessert medizinische Zeitreihenrekonstruktion