Neue Dialog-basierte Datengenerierung steigert Fortran-zu-C++ und C++-zu-CUDA Übersetzungen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neues automatisiertes Pipeline-Konzept nutzt zwei große Sprachmodelle – einen Fragegenerator und einen Lösungsanbieter – um Codeübersetzungen in ressourcenarmen Programmiersprachen zu verbessern. Durch die Einbindung von Compilerwissen und Laufzeitfeedback entstehen nicht nur klassische Quell-zu-Ziel-Codepaare, sondern auch geprüfte Übersetzungen mit Unit‑Tests und mehrschichtige Dialoge, die den Denkprozess hinter jeder Anpassung dokumentieren.

Bei den Tests auf Fortran‑zu‑C++ und C++‑zu‑CUDA wurden insgesamt 3.640 bzw. 3.930 Dialoge generiert. Das Fine‑Tuning mit diesen Daten führt zu einer dramatischen Steigerung der funktionalen Korrektheit: Bei der schwierigen C++‑zu‑CUDA‑Übersetzung steigen die Unit‑Test‑Erfolgsraten um mehr als 56 %. Damit demonstriert die Methode, dass qualitativ hochwertige, dialogbasierte Trainingsdaten selbst bei kleinen Modellen signifikante Leistungsverbesserungen ermöglichen.

Besonders bemerkenswert ist, dass ein 7‑Billionen‑Parameter‑Modell mit offenen Gewichten dank dieser Daten die größeren proprietären Systeme bei Schlüsselmetriken wie Kompilierungserfolg deutlich übertrifft. Die Ergebnisse zeigen, dass dialogbasierte Datengeneration ein vielversprechender Ansatz ist, um die Grenzen von LLM‑basierten Code‑Übersetzungen zu verschieben und gleichzeitig die Entwicklung in weniger verbreiteten Programmiersprachen zu beschleunigen.

Ähnliche Artikel