Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Angriffe”
Forschung

<p>Physische Angriffe auf ML-Wahlmaschinen: Manipulation von Stimmzetteln</p> <p>Moderne Machine‑Learning‑Modelle können Wahlzettel mit über 99 % Genauigkeit klassifizieren. Gleichzeitig zeigen neue Forschungsergebnisse, dass diese Systeme durch gezielte, physisch gedruckte Angriffe ausgenutzt werden können. In einer kürzlich veröffentlichten Studie wird untersucht, wie ein Angreifer mithilfe von adversarialen Stimmzetteln ein US‑Wahlverfahren manipulieren könnte.</p> <p>Die Autoren entwickeln ein probabili

arXiv – cs.LG
Forschung

<p>Federated Learning ermöglicht datenschutzfreundliches Modelltraining, doch die geteilten lokalen Updates bleiben Angriffen ausgesetzt. Um diese Schwachstellen zu beheben, wurden sichere Aggregationsverfahren entwickelt, die die Privatsphäre der Clients schützen.</p> <p>Die bisher vorgeschlagene Quantum Secure Aggregation (QSA) nutzt einen einzigen globalen GHZ‑Zustand, um die Client‑Updates in die globale Phase mehrteiliger, verschränkter Zustände zu kodieren. Bei steigender Teilnehmerzahl verschlechtert

arXiv – cs.LG
Forschung

<p>Physikalisch bedingte Angriffe auf Weltmodelle: Neue Sicherheitslücke entdeckt</p> <p>In einer wegweisenden Studie wird gezeigt, dass generative Weltmodelle, die zunehmend für die Erzeugung kontrollierter, sensorischer Fahrvideos eingesetzt werden, durch physikalische Vorannahmen anfällig für neue Angriffsmöglichkeiten sind. Das vorgestellte Verfahren, PhysCond‑WMA, ist der erste White‑Box-Angriff auf Weltmodelle, der gezielt physikalische Konditionskanäle wie HDMap‑Einbettungen und 3‑D-Box‑Features mani

arXiv – cs.LG