PrefixGPT revolutioniert die Optimierung von Prefix-Addierern

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der Welt der Hochleistungsrechner sind Prefix-Addierer unverzichtbar, weil sie extrem schnelle Addition ermöglichen. Doch die Entwicklung optimierter Addierer ist kompliziert: strenge Designregeln und ein exponentiell wachsender Entwurfsraum machen die Aufgabe zu einer echten Herausforderung.

Mit PrefixGPT, einem generativen vortrainierten Transformer, wird diese Herausforderung neu definiert. Das Modell erzeugt Addierer direkt aus dem Nichts, indem es die Topologie eines Addierers als zweidimensionale Koordinatenfolge darstellt. Durch einen sogenannten Legitimitäts‑Maskenmechanismus wird garantiert, dass jedes generierte Design von Anfang an gültig ist.

PrefixGPT nutzt eine maßgeschneiderte Decoder‑Only‑Transformer‑Architektur. Zunächst wird das Modell auf einer großen Sammlung zufällig synthetisierter, gültiger Prefix‑Addierer vortrainiert, um die zugrunde liegenden Designregeln zu erlernen. Anschließend wird es feinjustiert, um gezielt den Entwurfsraum zu erkunden und die bestmögliche Designqualität zu erzielen.

Im Vergleich zu bestehenden Ansätzen liefert PrefixGPT nicht nur ein neues, optimales Design mit einer 7,7 % verbesserten Area‑Delay‑Product (ADP), sondern reduziert auch den durchschnittlichen ADP um bis zu 79,1 %. Diese Ergebnisse zeigen eindrucksvoll, dass GPT‑basierte Modelle zunächst komplexe Hardware‑Designprinzipien meistern und anschließend für effizientere Optimierungen eingesetzt werden können.

Ähnliche Artikel