Liquid AI veröffentlicht detaillierten Leitfaden für kleine, unternehmensfähige Modelle
Liquid AI, ein MIT‑Startup, das 2023 von Computerwissenschaftlern gegründet wurde, hat mit der Einführung seiner Liquid Foundation Models Series 2 (LFM2) im Juli 2025 einen klaren Anspruch gesetzt: die schnellsten On‑De…
- Liquid AI, ein MIT‑Startup, das 2023 von Computerwissenschaftlern gegründet wurde, hat mit der Einführung seiner Liquid Foundation Models Series 2 (LFM2) im Juli 2025 ei…
- Durch die neue „liquide“ Architektur erreichen die Modelle eine Trainings‑ und Inferenz‑Effizienz, die kleine Modelle zu einer ernsthaften Alternative zu cloud‑basierten…
- Die erste Version enthielt dichte Checkpoints mit 350 M, 700 M und 1,2 B Parametern.
Liquid AI, ein MIT‑Startup, das 2023 von Computerwissenschaftlern gegründet wurde, hat mit der Einführung seiner Liquid Foundation Models Series 2 (LFM2) im Juli 2025 einen klaren Anspruch gesetzt: die schnellsten On‑Device‑Foundation‑Modelle der Welt zu liefern. Durch die neue „liquide“ Architektur erreichen die Modelle eine Trainings‑ und Inferenz‑Effizienz, die kleine Modelle zu einer ernsthaften Alternative zu cloud‑basierten Großmodellen wie OpenAI’s GPT‑Serie oder Google’s Gemini macht.
Die erste Version enthielt dichte Checkpoints mit 350 M, 700 M und 1,2 B Parametern. Das hybride Design, das stark auf gated Short‑Convolutions setzt, verschaffte LFM2 einen deutlichen Vorsprung gegenüber gleichgroßen Konkurrenten wie Qwen3, Llama 3.2 und Gemma 3 – sowohl bei der Modellqualität als auch bei der CPU‑Durchsatzrate. Das klare Versprechen an Unternehmen: Echtzeit‑KI mit Datenschutz auf Smartphones, Laptops und Fahrzeugen, ohne Leistungseinbußen.
Seit dem Launch hat Liquid LFM2 erweitert: Spezialisierte Varianten für Aufgaben und Domänen, ein kleines Video‑Ingest‑ und Analyse‑Modell sowie die edge‑orientierte Deploy‑Stack LEAP. Die Modelle dienen nun als Kontrollschicht für On‑Device‑ und On‑Prem‑Agentensysteme.
Mit der Veröffentlichung eines 51‑seitigen technischen Berichts auf arXiv geht Liquid einen Schritt weiter. Der Bericht legt den gesamten Prozess offen – von der Architektur‑Suche über die Daten‑Mischung, das Distillation‑Ziel, die Curriculum‑Strategie bis hin zur Post‑Training‑Pipeline. Im Gegensatz zu früheren Open‑Source‑Modellen basiert LFM2 auf einer wiederholbaren Rezeptur, die Entwickler:innen nutzen können, um eigene, leistungsfähige Modelle zu bauen.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.