Anthropic vs OpenAI: Red-Team-Methoden zeigen unterschiedliche Sicherheitsprioritäten
Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen. Die beiden führenden Anbieter zeigen dabei deutlich unterschiedliche Herangehensweisen.
Anthropics 153‑seitige System‑Card für Claude Opus 4.5 und OpenAIs 60‑seitige GPT‑5‑Card verdeutlichen, wie die Labs ihre Sicherheitsvalidierung strukturieren. Anthropic berichtet über die Erfolgsraten mehrerer Angriffe aus 200‑Versuch‑Reinforcement‑Learning‑Kampagnen, während OpenAI die Widerstandsfähigkeit gegen Jailbreak‑Versuche dokumentiert. Beide Kennzahlen sind sinnvoll, geben jedoch kein vollständiges Bild.
Für Sicherheitsverantwortliche ist es entscheidend zu verstehen, was jede Red‑Team‑Bewertung tatsächlich misst und wo die Blindstellen liegen. Nur so können sie fundierte Entscheidungen treffen, wenn sie KI‑Agenten für Browsing, Code‑Ausführung und autonome Aktionen einsetzen.
Gray Swan’s Shade‑Plattform führte adaptive Angriffe gegen die Claude‑Modelle durch. Die Attack‑Success‑Rate (ASR) zeigt: Opus 4.5 erreichte in Coding‑Umgebungen 4,7 % ASR bei einem Versuch, 33,6 % bei zehn und 63,0 % bei hundert Versuchen. In Computer‑Use‑Szenarien mit erweitertem Denken blieb die ASR sogar nach 200 Versuchen bei 0 %. Das Modell Sonnet 4.5 erzielte dagegen 70 % ASR in Coding und 85,7 % in Computer‑Use.
Opus 4.5 liefert damit rund siebenmal bessere Coding‑Resistenz und vollständige Resistenz bei Computer‑Use. Der Unterschied zwischen den Modell‑Tiers derselben Familie ist mittlerweile größer als einige Vergleiche zwischen Anbietern. Sicherheits‑Teams sollten diese Erkenntnisse nutzen, um ihre KI‑Strategien gezielt zu optimieren.