LLM-Code in C/C++: Sicherheitsrisiken und neue Erkenntnisse
Eine neue Studie aus dem arXiv-Repository (Arbeitsschlüssel 2511.18966v1) beleuchtet die Sicherheitslage von C/C++‑Code, der von großen Sprachmodellen (LLMs) generiert wurde. Die Autoren zeigen, dass solche automatisch erzeugten Programme häufig Schwachstellen aufweisen und wichtige defensive Programmierpraktiken fehlen.
Um die Risiken systematisch zu erfassen, wurden bekannte Fehlerarten anhand der Common Weakness Enumeration (CWE) klassifiziert und anschließend auf ihre Schwere hin mit den entsprechenden CVE‑Nummern verknüpft. Dabei nutzte das Team zehn verschiedene LLM‑Modelle, um Codebeispiele zu erzeugen, und setzte anschließend statische Analysewerkzeuge ein, um die Schwachstellen zu identifizieren.
Die Ergebnisse sind alarmierend: In den generierten C/C++‑Snippets tauchen zahlreiche CWEs auf, was die Notwendigkeit unterstreicht, bei der Verwendung von LLM‑Code besonders vorsichtig zu sein. Entwickler sollten daher vor dem Einsatz von KI‑generiertem Code gründliche Sicherheitsprüfungen durchführen.
Die Arbeit liefert wertvolle Einblicke, die die Weiterentwicklung automatisierter Codegenerierung vorantreiben und zugleich die Forschung zu sicheren KI‑unterstützten Programmierwerkzeugen anregen. Sie betont, dass Sicherheit ein zentrales Thema bleibt, wenn KI immer stärker in die Softwareentwicklung integriert wird.