LLM4Cov: Offline-Agenten lernen effizient Hardware‑Tests mit 69,2 % Coverage
In der Welt der Hardware‑Verifikation hat das neue Framework LLM4Cov einen bedeutenden Schritt nach vorne gemacht. Durch die Kombination von Large‑Language‑Modelle (LLM) mit einem offline‑basierten Agenten‑Learning-Ansa…
- In der Welt der Hardware‑Verifikation hat das neue Framework LLM4Cov einen bedeutenden Schritt nach vorne gemacht.
- Durch die Kombination von Large‑Language‑Modelle (LLM) mit einem offline‑basierten Agenten‑Learning-Ansatz ermöglicht LLM4Cov die Erstellung hochabdeckender Testbänke, o…
- Traditionell ist Online‑RL in der Hardware‑Verifikation kaum praktikabel, weil die Rückmeldungen aus industriellen Simulatoren teuer und zeitaufwendig sind.
In der Welt der Hardware‑Verifikation hat das neue Framework LLM4Cov einen bedeutenden Schritt nach vorne gemacht. Durch die Kombination von Large‑Language‑Modelle (LLM) mit einem offline‑basierten Agenten‑Learning-Ansatz ermöglicht LLM4Cov die Erstellung hochabdeckender Testbänke, ohne dass teure und langsame Online‑Reinforcement‑Learning‑Schleifen nötig sind.
Traditionell ist Online‑RL in der Hardware‑Verifikation kaum praktikabel, weil die Rückmeldungen aus industriellen Simulatoren teuer und zeitaufwendig sind. Zudem liefern die Ausführungssignale oft keine differenzierbaren Gradienten, was die Lernrate stark einschränkt. LLM4Cov löst dieses Problem, indem es die Verifikation als memoryless Zustandsübergänge modelliert, die von deterministischen Evaluatoren geführt werden.
Das Framework nutzt drei zentrale Innovationen: erstens eine execution‑validated Datenkuratierung, die nur tatsächlich ausgeführte Beispiele berücksichtigt; zweitens policy‑aware Agentic Data Synthesis, das gezielt neue Datenpunkte generiert, die die Agentenleistung verbessern; und drittens worst‑state‑prioritized Sampling, das die Lernressourcen auf die schwierigsten Zustände konzentriert. Diese Kombination erlaubt ein skalierbares Lernen unter strengen Ausführungsbeschränkungen.
Zur Validierung wurde ein realitätsnahes Benchmark‑Set aus einer bestehenden Verifikationssuite adaptiert und ein überarbeiteter Evaluationsprotokoll eingeführt. Mit diesem Ansatz erreicht ein kompakter 4‑Billionen‑Parameter‑Modell eine Coverage‑Pass‑Rate von 69,2 %. Das Ergebnis übertrifft sogar den Lehrer um 5,3 % und bleibt konkurrenzfähig gegenüber Modellen, die ein Vielfaches größer sind.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.