Neues Maß für Kürze: LLM‑Antworten ohne Referenz bewerten
Moderne Sprachmodelle liefern häufig lange, ausschweifende Antworten, die Klarheit mindern und die Nutzerzufriedenheit senken. Gleichzeitig steigen die Kosten für Entwickler, wenn die Modelle nach der Anzahl der ausgegebenen Tokens abgerechnet werden.