Forschung arXiv – cs.AI

NAAMSE: Evolutionäres Framework zur Sicherheitsbewertung von KI-Agenten

KI‑Agenten werden immer häufiger in produktiven Systemen eingesetzt, doch ihre Sicherheitsprüfung bleibt ein Engpass. Traditionelle Methoden wie manuelle Red‑Team‑Tests oder statische Benchmarks können adaptive, mehrstu…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • KI‑Agenten werden immer häufiger in produktiven Systemen eingesetzt, doch ihre Sicherheitsprüfung bleibt ein Engpass.
  • Traditionelle Methoden wie manuelle Red‑Team‑Tests oder statische Benchmarks können adaptive, mehrstufige Angreifer nicht adäquat simulieren.
  • Mit NAAMSE – einem evolutionären Ansatz zur Sicherheitsbewertung – wird das Problem neu formuliert: die Sicherheit von Agenten wird als feedback‑gestütztes Optimierungsp…

KI‑Agenten werden immer häufiger in produktiven Systemen eingesetzt, doch ihre Sicherheitsprüfung bleibt ein Engpass. Traditionelle Methoden wie manuelle Red‑Team‑Tests oder statische Benchmarks können adaptive, mehrstufige Angreifer nicht adäquat simulieren. Mit NAAMSE – einem evolutionären Ansatz zur Sicherheitsbewertung – wird das Problem neu formuliert: die Sicherheit von Agenten wird als feedback‑gestütztes Optimierungsproblem betrachtet.

Das System nutzt einen einzigen autonomen Agenten, der einen Lebenszyklus aus genetischer Prompt‑Mutation, hierarchischer Korpus‑Erkundung und asymmetrischer Verhaltensbewertung orchestriert. Durch die Nutzung der Modellantworten als Fitnesssignal werden effektive Angriffsstrategien schrittweise verstärkt, während gleichzeitig die „benign‑use‑Correctness“ gewahrt bleibt, um eine degenerate Sicherheit durch bloße Ablehnungen zu verhindern.

In Experimenten mit Gemini 2.5 Flash zeigte NAAMSE, dass evolutionäre Mutationen systematisch Schwachstellen aufdecken, die bei einmaligen Tests übersehen werden. Durch gezielte Mutationen in Kombination mit explorativen Durchsuchungen wurden hochgradige Fehlermodi identifiziert, die bisher nicht sichtbar waren. Diese adaptive Vorgehensweise liefert eine realistischere und skalierbarere Einschätzung der Robustheit von Agenten gegenüber sich wandelnden Bedrohungen.

Der Code für NAAMSE ist Open Source und unter https://github.com/HASHIRU-AI/NAAMSE verfügbar, sodass Entwickler und Forscher die Methode leicht übernehmen und weiterentwickeln können.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

KI-Agenten fuehren mehrschrittige Aufgaben mit Tools, Speicher und Rueckkopplung aus.

Die zentrale Frage ist nicht, ob ein Agent beeindruckend aussieht, sondern ob er stabil Aufgaben beendet und Fehler kontrollierbar macht.

Kann der Agent Aufgaben wirklich autonom abschliessen?
Wo liegen die Fehler-, Kosten- oder Sicherheitsgrenzen?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

KI-Agenten
KI-Agenten fuehren mehrschrittige Aufgaben mit Tools, Speicher und Rueckkopplung aus.
Sicherheitsbewertung
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
NAAMSE
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen