Thinking Machines Lab: Tinker jetzt allgemein verfügbar – Kimi K2 & Qwen3-VL Vision
Thinking Machines Lab hat die Tinker-Trainings-API in die allgemeine Verfügbarkeit überführt und gleichzeitig drei bedeutende Funktionen ergänzt: die Unterstützung des Kimi K2‑Thinking‑Modells, OpenAI‑kompatible Sampling‑Methoden und die Möglichkeit, Bilddaten über die Qwen3‑VL‑Vision‑Sprachmodelle einzuspeisen.
Diese Neuerungen machen Tinker zu einer echten All‑in‑One-Plattform für KI‑Ingenieure. Statt komplexe verteilte Trainingsinfrastrukturen aufzubauen, können Entwickler nun direkt an hochmodernen Modellen feintunen – und das mit einer einzigen, leicht zu bedienenden API.
Die Integration von Kimi K2 eröffnet zusätzliche Rechenlogik und Entscheidungsfindung, während die OpenAI‑Kompatibilität die Migration bestehender Workflows erleichtert. Durch die Bild‑Input‑Funktion können multimodale Modelle nun noch effizienter trainiert werden, was insbesondere für Anwendungen in Computer Vision und multimodaler KI von großem Nutzen ist.
Mit dieser Veröffentlichung positioniert sich Thinking Machines Lab als Vorreiter, der die Grenzen des maschinellen Lernens erweitert und gleichzeitig die Zugänglichkeit für Entwickler weltweit erhöht.