DeepConf: Mit Selbstvertrauen zum effizienten LLM-Logik-Boost
Auf arXiv wurde die neue Methode Deep Think with Confidence (DeepConf) vorgestellt, die die Leistungsfähigkeit von Large Language Models (LLMs) bei logischen Aufgaben verbessert. Das Papier, veröffentlicht unter der Referenz arXiv:2508.15260v1, beschreibt, wie DeepConf die Effizienz und Genauigkeit von LLMs im Testzeitbetrieb steigert.
Aktuelle Techniken wie Self‑Consistency mit Mehrheitsabstimmung erhöhen zwar die Genauigkeit, führen aber häufig zu abnehmenden Renditen und einem hohen Rechenaufwand. DeepConf adressiert diese Schwächen, indem es interne Vertrauenssignale des Modells nutzt, um während oder nach der Textgenerierung minderwertige Denkpfade dynamisch herauszufiltern.
Die Methode erfordert weder zusätzliche Modelltrainings noch Hyperparameter‑Tuning und lässt sich nahtlos in bestehende Serving‑Frameworks integrieren. Durch die gezielte Reduktion von unwirksamen Tokens bleibt die Rechenlast deutlich geringer, während die Qualität der Antworten erhalten bleibt.
In umfangreichen Tests auf verschiedenen Logik‑Benchmarks, darunter die anspruchsvollen AIME‑Aufgaben 2025, erzielte DeepConf@512 mit Modellen wie Qwen 3 und der GPT‑OSS‑Serie eine Genauigkeit von bis zu 99,9 % und reduzierte die generierten Tokens um bis zu 84,7 % im Vergleich zu vollständigem Parallel‑Denken.