Liquid AI veröffentlicht detaillierten Leitfaden für kleine, unternehmensfähige Modelle

VentureBeat – AI Original ≈2 Min. Lesezeit
Anzeige

Liquid AI, ein MIT‑Startup, das 2023 von Computerwissenschaftlern gegründet wurde, hat mit der Einführung seiner Liquid Foundation Models Series 2 (LFM2) im Juli 2025 einen klaren Anspruch gesetzt: die schnellsten On‑Device‑Foundation‑Modelle der Welt zu liefern. Durch die neue „liquide“ Architektur erreichen die Modelle eine Trainings‑ und Inferenz‑Effizienz, die kleine Modelle zu einer ernsthaften Alternative zu cloud‑basierten Großmodellen wie OpenAI’s GPT‑Serie oder Google’s Gemini macht.

Die erste Version enthielt dichte Checkpoints mit 350 M, 700 M und 1,2 B Parametern. Das hybride Design, das stark auf gated Short‑Convolutions setzt, verschaffte LFM2 einen deutlichen Vorsprung gegenüber gleichgroßen Konkurrenten wie Qwen3, Llama 3.2 und Gemma 3 – sowohl bei der Modellqualität als auch bei der CPU‑Durchsatzrate. Das klare Versprechen an Unternehmen: Echtzeit‑KI mit Datenschutz auf Smartphones, Laptops und Fahrzeugen, ohne Leistungseinbußen.

Seit dem Launch hat Liquid LFM2 erweitert: Spezialisierte Varianten für Aufgaben und Domänen, ein kleines Video‑Ingest‑ und Analyse‑Modell sowie die edge‑orientierte Deploy‑Stack LEAP. Die Modelle dienen nun als Kontrollschicht für On‑Device‑ und On‑Prem‑Agentensysteme.

Mit der Veröffentlichung eines 51‑seitigen technischen Berichts auf arXiv geht Liquid einen Schritt weiter. Der Bericht legt den gesamten Prozess offen – von der Architektur‑Suche über die Daten‑Mischung, das Distillation‑Ziel, die Curriculum‑Strategie bis hin zur Post‑Training‑Pipeline. Im Gegensatz zu früheren Open‑Source‑Modellen basiert LFM2 auf einer wiederholbaren Rezeptur, die Entwickler:innen nutzen können, um eigene, leistungsfähige Modelle zu bauen.

Ähnliche Artikel