Anthropic vs OpenAI: Red-Team-Methoden zeigen unterschiedliche Sicherheitsprioritäten
Unternehmen wollen die Sicherheit ihrer KI‑Modelle nachweisen, indem sie System‑Cards veröffentlichen und Red‑Team‑Übungen zu jeder neuen Version durchführen. Die beiden führenden Anbieter zeigen dabei deutlich untersch…