DR‑GNN: Dynamisches RTL‑Lernmodell steigert Simulationsergebnisse
In der Welt der Schaltkreise dominieren Graph Neural Networks (GNNs) seit einiger Zeit die Analyse von statischen Eigenschaften. Doch diese Modelle bleiben blind für das Verhalten eines Kreises während der Laufzeit – ein entscheidender Faktor für Verifikation und Optimierung. Mit DR‑GNN (DynamicRTL‑GNN) wird dieses Problem angegangen: Das neue Verfahren lernt RTL‑Repräsentationen, indem es sowohl die statische Struktur als auch die mehrtaktigen Ausführungsverhalten integriert.
Der Schlüssel liegt in der Verwendung eines operator‑basierten Control Data Flow Graph (CDFG), der Register‑Transfer‑Level‑Schaltungen exakt abbildet. Durch die Berücksichtigung dynamischer Abhängigkeiten kann DR‑GNN das Laufzeitverhalten eines Kreises präzise erfassen und in seine Lernrepräsentation einfließen lassen.
Zur Schulung und Bewertung wurde das erste umfassende Datenset für dynamische Schaltungen erstellt. Es umfasst über 6.300 Verilog‑Designs und 63.000 Simulationsspuren, die die Vielfalt realer Laufzeitbedingungen widerspiegeln.
Die Ergebnisse sind überzeugend: DR‑GNN übertrifft bestehende Modelle bei der Vorhersage von Branch‑Hits und Toggle‑Raten. Darüber hinaus übertragen sich die erlernten Repräsentationen erfolgreich auf verwandte Aufgaben wie die Leistungsschätzung und die Vorhersage von Assertions, wobei ebenfalls starke Leistungen erzielt werden.
Diese Fortschritte markieren einen wichtigen Schritt in Richtung effizienterer Verifikation und Optimierung von digitalen Schaltungen. Durch die Kombination von statischer Struktur und dynamischem Verhalten liefert DR‑GNN ein leistungsfähiges Werkzeug für die nächste Generation von RTL‑Analysetools.