Neue Methode steigert LLMs beim mathematischen Problemlösen
Die Fähigkeit von Sprachmodellen, mathematische Aufgaben zu lösen, gilt als entscheidender Test für ihre Denkfähigkeit und ist für Anwendungen in Bildung, Wissenschaft und Technik von zentraler Bedeutung. Trotz jüngster Fortschritte in Multi-Agenten-LLM-Systemen fehlt ihnen bislang eine verlässliche, überarbeitbare Darstellung des Denkprozesses. Traditionelle Ansätze arbeiten entweder in starren, sequentiellen Pipelines, die frühere Schritte nicht korrigieren können, oder verlassen sich auf heuristische Selbstbewertung, die Fehler oft übersehen lässt. Zudem kann das Einbinden von Programmcode die Modelle ablenken und die Genauigkeit mindern.