Neue Diffusionsangriffe zeigen Schwächen bei RL‑Sicherheit
Reinforcement‑Learning‑Agenten, die in vielen Bereichen beeindruckende Erfolge erzielen, sind anfällig für gezielte Angriffe. Besonders in bildbasierten Umgebungen können kleine Änderungen an hochdimensionalen Bilddaten das Verhalten des Agenten leicht irreführen. Trotz zahlreicher Verteidigungsansätze, die robuste Leistungen unter großen Zustandsstörungen versprechen, haben Forscher festgestellt, dass die Wirksamkeit dieser Abwehrmaßnahmen auf einer grundlegenden Schwäche der üblichen l_p‑Norm‑Angriffe beruht. Diese Angriffe verändern die Semantik der Bilddaten kaum, selbst bei großzügigem Störungsbudget.