Forschung arXiv – cs.LG

LLM-gestützte Generierung: 77 % mehr Codeabdeckung dank CoverageOptimierung

Mit dem rasanten Fortschritt der Large Language Models (LLMs) gewinnt die Anwendung dieser Technologie im Hardware‑Design immer mehr an Bedeutung. Besonders die Verifikationsphase bleibt jedoch die zeitintensivste und r…

≈2 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Mit dem rasanten Fortschritt der Large Language Models (LLMs) gewinnt die Anwendung dieser Technologie im Hardware‑Design immer mehr an Bedeutung.
  • Besonders die Verifikationsphase bleibt jedoch die zeitintensivste und ressourcenhungrigste Aufgabe, bei der die Erstellung effektiver Stimuli für das Design under Test…
  • Das neue Framework TB or not TB adressiert dieses Problem, indem es LLMs automatisch Stimuli generieren lässt.

Mit dem rasanten Fortschritt der Large Language Models (LLMs) gewinnt die Anwendung dieser Technologie im Hardware‑Design immer mehr an Bedeutung. Besonders die Verifikationsphase bleibt jedoch die zeitintensivste und ressourcenhungrigste Aufgabe, bei der die Erstellung effektiver Stimuli für das Design under Test (DUT) entscheidend ist.

Das neue Framework TB or not TB adressiert dieses Problem, indem es LLMs automatisch Stimuli generieren lässt. Durch ein spezielles Fine‑Tuning, das auf Coverage‑Driven Direct Preference Optimization (CD‑DPO) basiert, wird das Modell gezielt darauf trainiert, Stimuli zu erzeugen, die die Testabdeckung maximieren.

Ein zentrales Element des Ansatzes ist PairaNet, ein Datensatz, der aus PyraNet abgeleitet wurde. PairaNet besteht aus Paaren von Testbenches, die als hoch‑ bzw. niedrig‑qualitativ klassifiziert sind – die Klassifizierung erfolgt anhand von simulierten Coverage‑Messungen. Diese Paarungen ermöglichen es, Präferenz‑basierte Trainingsdaten zu generieren, die das Modell für die Qualitätsverbesserung nutzen kann.

CD‑DPO integriert die Coverage‑Feedback‑Information direkt in die Optimierungsfunktion. Dadurch lernt das Modell, Stimuli zu priorisieren, die nicht nur syntaktisch korrekt, sondern auch in Bezug auf die Abdeckung besonders wertvoll sind. Das Ergebnis ist ein stark verbessertes Stimulus‑Set, das gezielt die kritischen Pfade im DUT abdeckt.

In umfangreichen Experimenten auf dem CVDP CID12 Benchmark konnte TB or not TB die Leistung von bestehenden open‑source‑ und kommerziellen Lösungen deutlich übertreffen. Der Code‑Coverage-Score stieg um beeindruckende 77,27 %, was die Effektivität des CD‑DPO‑Ansatzes unterstreicht.

Diese Ergebnisse demonstrieren, dass coverage‑gestützte Präferenzoptimierung ein leistungsfähiger Ansatz für die LLM‑basierte Hardware‑Verifikation ist. Sie eröffnet neue Möglichkeiten, die Effizienz und Qualität von Verifikationsprozessen nachhaltig zu steigern.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.

Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.

Welches konkrete Problem loest das Modell besser als bisher?
Was bedeutet die Neuerung fuer Geschwindigkeit, Kosten oder Zuverlaessigkeit?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLMs
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Hardware Design Verification
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Stimuli Generation
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen