Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Greifer”
Forschung

<p>ML-Angriffe entschlüsseln: Wie man den Angreifer aus Beobachtungen erkennt</p> <p>In automatisierten Entscheidungssystemen sind maschinelle Lernmodelle zunehmend anfällig für Datenmanipulationen. Während bisherige Verteidigungsstrategien meist das Modell selbst oder das gesamte System schützen, richtet sich die neue Forschung in eine andere Richtung: Sie versucht, den Angreifer zu identifizieren, nicht nur die Angriffe zu verhindern.</p> <p>Die Autoren zeigen zunächst, dass ein Angreifer ohne zusätzliche

arXiv – cs.LG
Forschung

<p>Physische Angriffe auf ML-Wahlmaschinen: Manipulation von Stimmzetteln</p> <p>Moderne Machine‑Learning‑Modelle können Wahlzettel mit über 99 % Genauigkeit klassifizieren. Gleichzeitig zeigen neue Forschungsergebnisse, dass diese Systeme durch gezielte, physisch gedruckte Angriffe ausgenutzt werden können. In einer kürzlich veröffentlichten Studie wird untersucht, wie ein Angreifer mithilfe von adversarialen Stimmzetteln ein US‑Wahlverfahren manipulieren könnte.</p> <p>Die Autoren entwickeln ein probabili

arXiv – cs.LG