Liquid AI Releases LFM2-8B-A1B: An On-Device Mixture-of-Experts with 8.3B Params and a 1.5B Active Params per Token
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
Mixture-of-Experts: Hyperparameter-Transfer für skalierbare Transformer
arXiv – cs.LG
•
Neues Framework NSG-MoE trennt Knoten und optimiert multimodale Graphen
arXiv – cs.AI
•
Test-Time Mixture of World Models verbessert Anpassungsfähigkeit von Agents
arXiv – cs.AI
•
MinPRO: Prefix-Importance-Ratio stabilisiert RL-Optimierung von LLMs
arXiv – cs.AI
•
OmegaUse: Neuer GUI-Agent für autonome Aufgaben auf PC und Handy
MarkTechPost
•
Moonshot AI präsentiert Kimi K2.5: Open-Source-Visual-Agentic-Intelligenz mit Swarm