CUDA-L2: KI-gestützte Optimierung übertrifft cuBLAS bei Matrixmultiplikation
Ein neues System namens CUDA‑L2 kombiniert große Sprachmodelle mit Reinforcement‑Learning, um Half‑Precision General Matrix Multiply (HGEMM) CUDA‑Kernels automatisch zu optimieren. Durch die Nutzung der Ausführungszeit als Belohnung für das Lernverfahren kann CUDA‑L2 die Leistung von Matrixmultiplikationen systematisch steigern.