Produkt VentureBeat – AI

Anthropic vs OpenAI: Red-Team-Methoden zeigen unterschiedliche Sicherheitsprioritäten

Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen. Die beiden führenden Anbieter zeigen dabei deutlich untersch…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen.
  • Die beiden führenden Anbieter zeigen dabei deutlich unterschiedliche Herangehensweisen.
  • Anthropics 153‑seitige System‑Card für Claude Opus 4.5 und OpenAIs 60‑seitige GPT‑5‑Card verdeutlichen, wie die Labs ihre Sicherheitsvalidierung strukturieren.

Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen. Die beiden führenden Anbieter zeigen dabei deutlich unterschiedliche Herangehensweisen.

Anthropics 153‑seitige System‑Card für Claude Opus 4.5 und OpenAIs 60‑seitige GPT‑5‑Card verdeutlichen, wie die Labs ihre Sicherheitsvalidierung strukturieren. Anthropic berichtet über die Erfolgsraten mehrerer Angriffe aus 200‑Versuch‑Reinforcement‑Learning‑Kampagnen, während OpenAI die Widerstandsfähigkeit gegen Jailbreak‑Versuche dokumentiert. Beide Kennzahlen sind sinnvoll, geben jedoch kein vollständiges Bild.

Für Sicherheitsverantwortliche ist es entscheidend zu verstehen, was jede Red‑Team‑Bewertung tatsächlich misst und wo die Blindstellen liegen. Nur so können sie fundierte Entscheidungen treffen, wenn sie KI‑Agenten für Browsing, Code‑Ausführung und autonome Aktionen einsetzen.

Gray Swan’s Shade‑Plattform führte adaptive Angriffe gegen die Claude‑Modelle durch. Die Attack‑Success‑Rate (ASR) zeigt: Opus 4.5 erreichte in Coding‑Umgebungen 4,7 % ASR bei einem Versuch, 33,6 % bei zehn und 63,0 % bei hundert Versuchen. In Computer‑Use‑Szenarien mit erweitertem Denken blieb die ASR sogar nach 200 Versuchen bei 0 %. Das Modell Sonnet 4.5 erzielte dagegen 70 % ASR in Coding und 85,7 % in Computer‑Use.

Opus 4.5 liefert damit rund siebenmal bessere Coding‑Resistenz und vollständige Resistenz bei Computer‑Use. Der Unterschied zwischen den Modell‑Tiers derselben Familie ist mittlerweile größer als einige Vergleiche zwischen Anbietern. Sicherheits‑Teams sollten diese Erkenntnisse nutzen, um ihre KI‑Strategien gezielt zu optimieren.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

KI-Sicherheit
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
System-Card
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Red Team
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
VentureBeat – AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen