Anthropic vs OpenAI: Red-Team-Methoden zeigen unterschiedliche Sicherheitsprioritäten
Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen. Die beiden führenden Anbieter zeigen dabei deutlich untersch…
- Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen.
- Die beiden führenden Anbieter zeigen dabei deutlich unterschiedliche Herangehensweisen.
- Anthropics 153‑seitige System‑Card für Claude Opus 4.5 und OpenAIs 60‑seitige GPT‑5‑Card verdeutlichen, wie die Labs ihre Sicherheitsvalidierung strukturieren.
Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen. Die beiden führenden Anbieter zeigen dabei deutlich unterschiedliche Herangehensweisen.
Anthropics 153‑seitige System‑Card für Claude Opus 4.5 und OpenAIs 60‑seitige GPT‑5‑Card verdeutlichen, wie die Labs ihre Sicherheitsvalidierung strukturieren. Anthropic berichtet über die Erfolgsraten mehrerer Angriffe aus 200‑Versuch‑Reinforcement‑Learning‑Kampagnen, während OpenAI die Widerstandsfähigkeit gegen Jailbreak‑Versuche dokumentiert. Beide Kennzahlen sind sinnvoll, geben jedoch kein vollständiges Bild.
Für Sicherheitsverantwortliche ist es entscheidend zu verstehen, was jede Red‑Team‑Bewertung tatsächlich misst und wo die Blindstellen liegen. Nur so können sie fundierte Entscheidungen treffen, wenn sie KI‑Agenten für Browsing, Code‑Ausführung und autonome Aktionen einsetzen.
Gray Swan’s Shade‑Plattform führte adaptive Angriffe gegen die Claude‑Modelle durch. Die Attack‑Success‑Rate (ASR) zeigt: Opus 4.5 erreichte in Coding‑Umgebungen 4,7 % ASR bei einem Versuch, 33,6 % bei zehn und 63,0 % bei hundert Versuchen. In Computer‑Use‑Szenarien mit erweitertem Denken blieb die ASR sogar nach 200 Versuchen bei 0 %. Das Modell Sonnet 4.5 erzielte dagegen 70 % ASR in Coding und 85,7 % in Computer‑Use.
Opus 4.5 liefert damit rund siebenmal bessere Coding‑Resistenz und vollständige Resistenz bei Computer‑Use. Der Unterschied zwischen den Modell‑Tiers derselben Familie ist mittlerweile größer als einige Vergleiche zwischen Anbietern. Sicherheits‑Teams sollten diese Erkenntnisse nutzen, um ihre KI‑Strategien gezielt zu optimieren.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.