LLM-gestützte Wissensbäume lösen RTL-Assertions schneller
In der heutigen Hardware‑Verifikation ist das Debuggen der Hauptkostenfaktor, wobei Assertion‑Fehler besonders häufig und teuer zu beheben sind. Ein neues arXiv‑Veröffentlichung (2511.17833v1) stellt das GROVE‑Framework vor, das diese Herausforderung mit Hilfe von Large Language Models (LLMs) angeht.
GROVE nutzt eine hierarchische Wissensverwaltung, die aus vergangenen Debugging‑Fallstudien lernte und diese in einen vertikalen Baum mit konfigurierbarer Tiefe überführt. Jeder Knoten enthält ein prägnantes Wissensstück sowie explizite Anwendbarkeitsbedingungen, sodass Ingenieure schnell die relevanten Informationen finden können.
Während des Trainings arbeitet GROVE in einer parallelen, gradientsfreien Schleife: ein LLM schlägt JSON‑basierte Baumänderungen vor und lernt dabei aus den vorhandenen Fällen. Im Einsatz führt ein budget‑bewusster, iterativer Zoom durch den Baum, um eine kleine Menge an zutreffenden Wissensartikeln zu extrahieren. Diese Artikel unterstützen ein Basis‑LLM dabei, Hypothesen zu generieren und Lösungsvorschläge zu formulieren.
Die Evaluation auf einer umfangreichen Sammlung von Assertion‑Fehlerfällen zeigt, dass GROVE die Erfolgsraten bei Pass@1 und Pass@5 konsistent steigert. Das Ergebnis unterstreicht den Nutzen strukturierter Wissensentwicklung für die effiziente Fehlerbehebung in der Hardware‑Verifikation.