Forschung arXiv – cs.AI

OpenSec: Neue Benchmark für Incident-Response-Agenten unter Angriffsszenarien

Mit dem rasanten Fortschritt großer Sprachmodelle steigen auch deren Einsatzmöglichkeiten im Angriffsszenario. Während neue Agenten in weniger als 50 Computing‑Einheiten funktionierende Exploits generieren können, müsse…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Mit dem rasanten Fortschritt großer Sprachmodelle steigen auch deren Einsatzmöglichkeiten im Angriffsszenario.
  • Während neue Agenten in weniger als 50 Computing‑Einheiten funktionierende Exploits generieren können, müssen defensive Incident‑Response‑Agenten (IR) Schritt halten.
  • Aktuelle Benchmarks vermischen jedoch die Ausführung von Aktionen mit deren korrekten Ausführung, wodurch Kalibrierungsfehler bei der Verarbeitung von feindlichem Beweis…

Mit dem rasanten Fortschritt großer Sprachmodelle steigen auch deren Einsatzmöglichkeiten im Angriffsszenario. Während neue Agenten in weniger als 50 Computing‑Einheiten funktionierende Exploits generieren können, müssen defensive Incident‑Response‑Agenten (IR) Schritt halten. Aktuelle Benchmarks vermischen jedoch die Ausführung von Aktionen mit deren korrekten Ausführung, wodurch Kalibrierungsfehler bei der Verarbeitung von feindlichem Beweismaterial verborgen bleiben.

OpenSec ist ein neu entwickeltes, dual‑Control‑Reinforcement‑Learning‑Umfeld, das IR‑Agenten unter realistischen Prompt‑Injection‑Szenarien testet. Im Gegensatz zu statischen Fähigkeitsbenchmarks bewertet OpenSec weltverändernde Containment‑Aktionen anhand von ausführungsgesteuerten Metriken: Time‑to‑First‑Containment (TTFC), Blast‑Radius (Falsch‑Positive‑Rate pro Episode) und Injection‑Violation‑Rates. Diese Kennzahlen zeigen deutlich, ob ein Agent in der Lage ist, Angriffe zu stoppen, ohne dabei unnötige Fehlalarme auszulösen.

Bei einer Evaluation von vier führenden Modellen über 40 Standard‑Episodes zeigte OpenSec, dass GPT‑5.2, Gemini 3 und DeepSeek in 100 % der Fälle Containment ausführen, jedoch mit 90 – 97 % Falsch‑Positive‑Raten. Claude Sonnet 4.5 zeigte eine teilweise Kalibrierung: 85 % Containment bei 72 % Falsch‑Positive. Diese Ergebnisse verdeutlichen, dass herkömmliche Erfolgsmessungen die Kalibrierungsprobleme verbergen, während OpenSec sie ans Licht bringt.

Der Open‑Source‑Code von OpenSec ist auf GitHub verfügbar und bietet Forschern sowie Praktikern ein robustes Werkzeug, um die Leistungsfähigkeit von Incident‑Response‑Agenten unter Angriffsszenarien realistisch zu bewerten.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Sprachmodelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Exploit-Generierung
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Incident Response
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen