Forschung arXiv – cs.LG

LLM‑Sicherheit: Zufällige Seeds und Temperatur zeigen Inkonsistenzen

Eine neue Studie von Forschern auf arXiv hat die Annahme in Frage gestellt, dass die Sicherheitsentscheidungen großer Sprachmodelle (LLMs) deterministisch und zuverlässig sind. Durch systematisches Testen von vier instr…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Eine neue Studie von Forschern auf arXiv hat die Annahme in Frage gestellt, dass die Sicherheitsentscheidungen großer Sprachmodelle (LLMs) deterministisch und zuverlässi…
  • Durch systematisches Testen von vier instruction‑tuned Modellen – Llama 3.1 8 B, Qwen 2.5 7 B, Qwen 3 8 B und Gemma 3 12 B – auf 876 potenziell schädlichen Eingaben wurd…
  • Die Experimente umfassten 20 verschiedene Sampling‑Konfigurationen, die sich aus vier Temperatur‑Werten (0,0 bis 1,0) und fünf unterschiedlichen Zufalls‑Seeds zusammense…

Eine neue Studie von Forschern auf arXiv hat die Annahme in Frage gestellt, dass die Sicherheitsentscheidungen großer Sprachmodelle (LLMs) deterministisch und zuverlässig sind. Durch systematisches Testen von vier instruction‑tuned Modellen – Llama 3.1 8 B, Qwen 2.5 7 B, Qwen 3 8 B und Gemma 3 12 B – auf 876 potenziell schädlichen Eingaben wurden signifikante Schwankungen in den Ablehnungsentscheidungen entdeckt.

Die Experimente umfassten 20 verschiedene Sampling‑Konfigurationen, die sich aus vier Temperatur‑Werten (0,0 bis 1,0) und fünf unterschiedlichen Zufalls‑Seeds zusammensetzten. Für jede Konfiguration wurde geprüft, ob das Modell bei einem Prompt ablehnt oder zustimmt. Dabei zeigte sich, dass 18 % bis 28 % der Prompts je nach Konfiguration unterschiedlich reagierten – ein deutlicher Hinweis auf Instabilität.

Zur Quantifizierung der Stabilität wurde der Safety Stability Index (SSI) eingeführt. Die Ergebnisse zeigen, dass höhere Temperaturen die Stabilität stark verringern: Der durchschnittliche SSI sank von 0,951 bei Temperatur 0,0 auf 0,896 bei Temperatur 1,0 (Friedman chi‑quadratisch = 44,71, p < 0,001). Diese Zahlen verdeutlichen, dass die übliche Praxis der Ein‑Shot‑Bewertung die tatsächliche Sicherheit von LLMs nicht zuverlässig abbildet.

Die Befunde wurden durch einen externen Prüfer – Claude 3.5 Haiku – bestätigt, der mit dem primären Llama 70B‑Judge eine Übereinstimmung von 89 % erzielte (Cohen’s kappa = 0,62). Die Studie zeigt, dass Ein‑Shot‑Bewertungen nur 92,4 % der Zeit mit einer mehrstufigen Ground‑Truth übereinstimmen. Aus diesem Grund empfehlen die Autoren, mindestens drei Stichproben pro Prompt zu verwenden, um eine verlässliche Sicherheitsbewertung zu gewährleisten.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.

Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.

Welches konkrete Problem loest das Modell besser als bisher?
Was bedeutet die Neuerung fuer Geschwindigkeit, Kosten oder Zuverlaessigkeit?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLM
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Safety Stability Index
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Sampling-Konfiguration
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen