FunPRM: LLM-Codegenerierung mit Funktionsschritten und Meta‑Belohnungskorrektur
Die neue Methode FunPRM (Function‑as‑Step Process Reward Model) löst ein langjähriges Problem bei der Codegenerierung mit großen Sprachmodellen: die häufige Fehlleistung bei komplexen Programmieraufgaben. Durch die gezielte Aufteilung von Code in modulare Funktionen und die Behandlung jeder Funktion als eigenständiger Schritt im Prozess‑Reward‑Modell (PRM) wird die Struktur des generierten Codes deutlich verbessert.
Ein zentrales Merkmal von FunPRM ist die Meta‑Lern‑basierte Belohnungskorrektur. Während herkömmliche PRMs auf verrauschten Monte‑Carlo‑Schätzungen der Teillösungskorrektheit angewiesen sind, nutzt FunPRM ein unit‑test‑basiertes Evaluationssystem, um die endgültige Lösung zu prüfen. Die daraus gewonnenen sauberen End‑Belohnungen werden dann verwendet, um die verrauschten Teillösungsbelohnungen zu bereinigen und so die Genauigkeit der Schritt‑weise Bewertung zu erhöhen.
In umfangreichen Tests auf den Benchmarks LiveCodeBench und BigCodeBench übertraf FunPRM sämtliche bestehenden Test‑Time‑Scaling‑Methoden bei fünf unterschiedlichen Basis‑LLMs. Besonders hervorzuheben ist die Erreichung eines neuen Bestwerts auf LiveCodeBench in Kombination mit dem Modell O4‑mini. Darüber hinaus erzeugt FunPRM Code, der nicht nur funktional korrekt, sondern auch lesbarer und wiederverwendbarer für Entwickler ist.
Die Ergebnisse zeigen, dass FunPRM einen bedeutenden Fortschritt für die praktische Anwendung von LLMs in der Softwareentwicklung darstellt. Durch die Kombination von strukturiertem Code‑Design und einer robusten Belohnungskorrektur bietet die Methode einen vielversprechenden Ansatz für zukünftige Forschung und industrielle Anwendungen.