LLM 0.27 veröffentlicht: GPT‑5‑Modelle & verbesserte Tool‑Calls
Heute wurde die Version 0.27 des LLM‑Frameworks veröffentlicht, gefolgt von einer 0.27.1‑Patch‑Version mit kleineren Fehlerbehebungen. Die neue Version bringt die gesamte GPT‑5‑Familie von OpenAI – gpt‑5, gpt‑5‑mini und gpt‑5‑nano – sowie zahlreiche Verbesserungen der Tool‑Aufruffunktionen aus LLM 0.26.
Die GPT‑5‑Modelle funktionieren ähnlich wie frühere OpenAI‑Modelle, verfügen jedoch über die neue Option reasoning_effort minimal
, die die Rechenzeit drastisch reduziert und das Verhalten an GPT‑4o anpasst. Ein Beispiel: llm -m gpt-5 'Ein Brief, der für gemütliche Boxen für Pelikane im Hafen von Half Moon Bay plädiert' -o reasoning_effort minimal
erzeugte einen Brief für nur 0,007 USD. Das günstigere Modell gpt‑5‑mini kann als Standard festgelegt werden: llm models default gpt-5-mini
.
Ein weiteres Highlight ist die erweiterte Tool‑Integration in LLM‑Vorlagen. Jetzt können Vorlagen eine Liste von Tools enthalten – sei es ein Plugin‑Tool oder ein beliebiger Python‑Funktionsblock. Die Tool‑Aufruffunktion aus Version 0.26 lässt sich nun nicht nur über die Python‑API, sondern auch direkt über die Befehlszeile aufrufen, z. B.: llm -T llm_version -T llm_time 'Gib die Uhrzeit an, dann zeige die Version'
. Diese Befehle demonstrieren die neue Flexibilität und die vereinfachte Nutzung von Tool‑Aufrufen aus der Kommandozeile.