JailExpert: Mit Erfahrung zum 17 % höheren Erfolg bei LLM‑Jailbreaks

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Moderne Sprachmodelle erzeugen zwar größtenteils sicherheitskonformes Material, doch mit sogenannten „Jailbreak‑Prompts“ lassen sich diese Schutzmechanismen umgehen. Die Forschung zu solchen Angriffen dient dazu, Schwachstellen aufzudecken und robuste Sicherheitsarchitekturen zu entwickeln.

Aktuelle Ansätze zur automatisierten Angriffsfindung setzen auf iterative Mutationen und dynamische Optimierung. Sie sind jedoch oft ineffizient und wiederholen Optimierungen, weil sie die Erkenntnisse aus vergangenen Angriffen nicht nutzen. Dadurch werden neue Modelle schnell veraltet.

Der neue Rahmenwerk‑Ansatz JailExpert löst dieses Problem, indem er Angriffserfahrungen formal strukturiert, sie nach semantischem Drift gruppiert und den Erfahrungspool kontinuierlich aktualisiert. So kann das System frühere Erkenntnisse gezielt für aktuelle Versuche einsetzen.

Umfangreiche Tests zeigen, dass JailExpert die Angriffserfolgsrate im Vergleich zu führenden Black‑Box‑Methoden um durchschnittlich 17 % steigert und die Effizienz um das 2,7‑fache verbessert. Der Code ist frei verfügbar unter XiZaiZai/JailExpert.

Ähnliche Artikel