Praxis Simon Willison – Blog

LLM 0.27 veröffentlicht: GPT‑5‑Modelle & verbesserte Tool‑Calls

Heute wurde die Version 0.27 des LLM‑Frameworks veröffentlicht, gefolgt von einer 0.27.1‑Patch‑Version mit kleineren Fehlerbehebungen. Die neue Version bringt die gesamte GPT‑5‑Familie von OpenAI – gpt‑5, gpt‑5‑mini und…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Heute wurde die Version 0.27 des LLM‑Frameworks veröffentlicht, gefolgt von einer 0.27.1‑Patch‑Version mit kleineren Fehlerbehebungen.
  • Die neue Version bringt die gesamte GPT‑5‑Familie von OpenAI – gpt‑5, gpt‑5‑mini und gpt‑5‑nano – sowie zahlreiche Verbesserungen der Tool‑Aufruffunktionen aus LLM 0.26.
  • Die GPT‑5‑Modelle funktionieren ähnlich wie frühere OpenAI‑Modelle, verfügen jedoch über die neue Option reasoning_effort minimal, die die Rechenzeit drastisch reduziert…

Heute wurde die Version 0.27 des LLM‑Frameworks veröffentlicht, gefolgt von einer 0.27.1‑Patch‑Version mit kleineren Fehlerbehebungen. Die neue Version bringt die gesamte GPT‑5‑Familie von OpenAI – gpt‑5, gpt‑5‑mini und gpt‑5‑nano – sowie zahlreiche Verbesserungen der Tool‑Aufruffunktionen aus LLM 0.26.

Die GPT‑5‑Modelle funktionieren ähnlich wie frühere OpenAI‑Modelle, verfügen jedoch über die neue Option reasoning_effort minimal, die die Rechenzeit drastisch reduziert und das Verhalten an GPT‑4o anpasst. Ein Beispiel: llm -m gpt-5 'Ein Brief, der für gemütliche Boxen für Pelikane im Hafen von Half Moon Bay plädiert' -o reasoning_effort minimal erzeugte einen Brief für nur 0,007 USD. Das günstigere Modell gpt‑5‑mini kann als Standard festgelegt werden: llm models default gpt-5-mini.

Ein weiteres Highlight ist die erweiterte Tool‑Integration in LLM‑Vorlagen. Jetzt können Vorlagen eine Liste von Tools enthalten – sei es ein Plugin‑Tool oder ein beliebiger Python‑Funktionsblock. Die Tool‑Aufruffunktion aus Version 0.26 lässt sich nun nicht nur über die Python‑API, sondern auch direkt über die Befehlszeile aufrufen, z. B.: llm -T llm_version -T llm_time 'Gib die Uhrzeit an, dann zeige die Version'. Diese Befehle demonstrieren die neue Flexibilität und die vereinfachte Nutzung von Tool‑Aufrufen aus der Kommandozeile.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLM Framework
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
GPT-5
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
OpenAI
OpenAI ist einer der wichtigsten Taktgeber fuer KI-Produkte, Modellstarts und API-Oekosysteme.
Simon Willison – Blog
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen