Größere KI-Modelle brechen kleinere leichter – Studie zeigt Skalierung
Eine neue Untersuchung aus dem arXiv-Repository hat gezeigt, dass die Größe von Sprachmodellen entscheidend dafür ist, wie stark sie in Mehragentensystemen angreifen können. In einer Reihe von über 6.000 simulierten Interaktionen zwischen Angreifer- und Zielmodellen – von 0,6 B bis 120 B Parametern – wurden standardisierte Jailbreak-Aufgaben aus JailbreakBench eingesetzt, um die Schwachstellen von LLMs zu testen.
Die Ergebnisse wurden anhand von drei unabhängigen LLM-Judges bewertet, die jeweils einen Harm-Score und einen Refusal-Score ermittelten. Dabei zeigte sich ein starkes, statistisch signifikantes Verhältnis zwischen dem durchschnittlichen Harm-Score und dem Logarithmus des Größenverhältnisses Angreifer zu Ziel (Pearson r = 0,51, Spearman ρ = 0,52). Das bedeutet: Je größer das Angreifer-Modell im Vergleich zum Ziel, desto wahrscheinlicher und schwerwiegender werden schädliche Antworten.
Interessanterweise variierten die Harm-Scores stärker bei den Angreifern (0,18) als bei den Zielen (0,10), was darauf hindeutet, dass die Vielfalt der Angreifer‑Verhaltensweisen einen größeren Einfluss hat als die Anfälligkeit der Zielmodelle. Gleichzeitig korrelierte die Häufigkeit von Ablehnungen der Angreifer stark negativ mit dem Harm-Score (ρ = –0,93), was zeigt, dass gut abgestimmte Angreifer weniger schädliche Inhalte erzeugen.
Die Studie unterstreicht, dass die relative Modellgröße ein entscheidender Faktor für die Wirksamkeit von Angriffen ist und dass die Alignment‑Strategien der Angreifer selbst einen wesentlichen Schutz bieten. Diese Erkenntnisse sind besonders relevant für die Entwicklung sicherer KI‑Systeme in kritischen Anwendungsbereichen.