Studie zeigt: Schrittweise Denkprozesse steigern Code‑LLM‑Genauigkeit
Eine neue Untersuchung von Forschern auf arXiv beleuchtet, wie große Sprachmodelle (LLMs) beim Programmieren explizite Zwischenschritte erzeugen und welche Wirkung diese auf die Ergebnisqualität haben. Die Analyse konzentriert sich auf sechs aktuelle „Thinking‑LLMs“ – DeepSeek‑R1, OpenAI‑o3‑mini, Claude‑3.7‑Sonnet‑Thinking, Gemini‑2.0‑Flash‑Thinking, Gemini‑2.5‑Flash und Qwen‑QwQ – und testet sie an 100 Code‑Generierungsaufgaben unterschiedlicher Schwierigkeitsgrade aus dem BigCodeBench‑Korpus.