N-GLARE: Effizienter, nicht-generativer LLM‑Sicherheitsprüfer
Die Sicherheit von großen Sprachmodellen (LLMs) ist entscheidend für deren Einsatz. Traditionelle Red‑Team‑Methoden beruhen auf Online‑Generierung und Analyse von Ausgaben, was hohe Kosten und lange Feedback‑Latenzen verursacht. Diese Einschränkungen machen sie ungeeignet für schnelle Diagnosen nach dem Training neuer Modelle.
ArXiv:2511.14195v1 stellt N‑GLARE vor – einen nicht‑generativen Evaluator, der ausschließlich die latenten Repräsentationen eines Modells nutzt. Durch die Analyse der Angular‑Probabilistic Trajectory (APT) der versteckten Schichten und die Einführung des Jensen‑Shannon Separability (JSS) Metrics kann N‑GLARE die Sicherheitsstabilität eines Modells ohne Textgenerierung beurteilen.
In Experimenten mit über 40 Modellen und 20 Red‑Team‑Strategien zeigte sich, dass der JSS‑Wert die Sicherheitsrankings aus klassischen Red‑Team‑Tests hochgradig konsistent widerspiegelt. Gleichzeitig reduziert N‑GLARE den Token‑ und Laufzeitaufwand auf weniger als 1 % im Vergleich zu herkömmlichen Verfahren.
Damit bietet N‑GLARE einen effizienten, output‑freien Proxy für Echtzeit‑Diagnostik, der schnelle und kostengünstige Sicherheitsbewertungen ermöglicht, ohne die Qualität der Ergebnisse zu beeinträchtigen.