Forschung arXiv – cs.LG

CS-GBA: Sample-basierter Gradient-Backdoor-Angriff auf Offline RL

Offline-Reinforcement‑Learning (RL) nutzt statische Datensätze, um Agenten zu trainieren, ist jedoch anfällig für Backdoor‑Angriffe. Bisherige Angriffsstrategien stoßen bei sicherheitsbeschränkten Algorithmen wie CQL an…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Offline-Reinforcement‑Learning (RL) nutzt statische Datensätze, um Agenten zu trainieren, ist jedoch anfällig für Backdoor‑Angriffe.
  • Bisherige Angriffsstrategien stoßen bei sicherheitsbeschränkten Algorithmen wie CQL an ihre Grenzen, weil sie auf ineffiziente Zufalls‑Poisoning‑Methoden und leicht erke…
  • Die neue Methode CS‑GBA (Critical Sample‑based Gradient‑guided Backdoor Attack) löst dieses Problem, indem sie gezielt die wichtigsten Übergänge auswählt.

Offline-Reinforcement‑Learning (RL) nutzt statische Datensätze, um Agenten zu trainieren, ist jedoch anfällig für Backdoor‑Angriffe. Bisherige Angriffsstrategien stoßen bei sicherheitsbeschränkten Algorithmen wie CQL an ihre Grenzen, weil sie auf ineffiziente Zufalls‑Poisoning‑Methoden und leicht erkennbaren Out‑of‑Distribution‑Triggern (OOD) setzen.

Die neue Methode CS‑GBA (Critical Sample‑based Gradient‑guided Backdoor Attack) löst dieses Problem, indem sie gezielt die wichtigsten Übergänge auswählt. Durch die Analyse von hohen Temporal‑Difference‑(TD)‑Fehlern identifiziert das System kritische Samples und konzentriert das begrenzte Angriffsbudget auf diese einflussreichsten Transaktionen.

Um OOD‑Erkennung zu umgehen, nutzt CS‑GBA einen Correlation‑Breaking‑Trigger, der die physikalische gegenseitige Ausschließlichkeit von Zustandsmerkmalen (z. B. 95‑Perzentil‑Grenzen) ausnutzt, sodass der Trigger statistisch unauffällig bleibt.

Anstelle der üblichen Label‑Inversion generiert die Technik einen Gradient‑Guided Action‑Generation‑Mechanismus. Dieser sucht innerhalb des Daten‑Manifolds nach den schlechtesten Aktionen, indem er den Gradienten des Ziel‑Q‑Netzwerks nutzt.

Experimentelle Tests auf D4RL‑Benchmarks zeigen, dass CS‑GBA die bisherigen Spitzenreiter deutlich übertrifft. Mit nur 5 % Poisioning‑Budget erreicht die Methode hohe Erfolgsraten gegen sicherheitsbeschränkte Algorithmen und hält gleichzeitig die Leistung des Agenten in sauberen Umgebungen auf einem hohen Niveau.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Offline-Reinforcement-Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Backdoor-Angriff
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
CS-GBA
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen