DeepSeekMath-V2: Selbstverifizierbare Mathematik – Fortschritt bei LLMs

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Neues Modell DeepSeekMath‑V2 von DeepSeek zeigt, wie große Sprachmodelle (LLMs) ihre Fähigkeiten im mathematischen Denken weiter ausbauen können. Durch Verstärkungslernen, das korrekte Endergebnisse belohnt, haben LLMs in kurzer Zeit die Leistung bei quantitativen Wettbewerben wie AIME und HMMT nahezu maximiert.

Der Ansatz stößt jedoch an Grenzen: Nur weil ein Modell die richtige Antwort liefert, bedeutet das nicht, dass der Lösungsweg korrekt ist. Besonders bei Aufgaben wie Theorem‑Beweisen, die eine rigorose Schritt‑für‑Schritt‑Herleitung erfordern, reicht eine Endantwort nicht aus. DeepSeek hat deshalb ein selbstverifizierendes System entwickelt, das die Vollständigkeit und Rigorosität der mathematischen Argumentation prüft.

Zunächst wird ein LLM‑basierter Verifikator trainiert, der die Qualität von Beweisen beurteilen kann. Anschließend dient dieser Verifikator als Belohnungsmodell für einen Beweisgenerator. Der Generator wird so motiviert, eigene Fehler zu erkennen und zu beheben, bevor er einen Beweis abschließt. Um die Kluft zwischen Generator und Verifikator zu verringern, skaliert DeepSeek die Rechenleistung für die Verifikation, um neue, schwer zu prüfende Beweise automatisch zu kennzeichnen und daraus Trainingsdaten zu generieren.

Durch diese Kombination aus selbstverifizierender Bewertung und belohnungsorientiertem Generieren soll DeepSeekMath‑V2 die Grenzen des maschinellen mathematischen Denkens verschieben und ein robustes Werkzeug für die Lösung bislang ungelöster Probleme bieten.

Ähnliche Artikel