Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Angriff”
Forschung

<p>ML-Angriffe entschlüsseln: Wie man den Angreifer aus Beobachtungen erkennt</p> <p>In automatisierten Entscheidungssystemen sind maschinelle Lernmodelle zunehmend anfällig für Datenmanipulationen. Während bisherige Verteidigungsstrategien meist das Modell selbst oder das gesamte System schützen, richtet sich die neue Forschung in eine andere Richtung: Sie versucht, den Angreifer zu identifizieren, nicht nur die Angriffe zu verhindern.</p> <p>Die Autoren zeigen zunächst, dass ein Angreifer ohne zusätzliche

arXiv – cs.LG
Forschung

<p>Physische Angriffe auf ML-Wahlmaschinen: Manipulation von Stimmzetteln</p> <p>Moderne Machine‑Learning‑Modelle können Wahlzettel mit über 99 % Genauigkeit klassifizieren. Gleichzeitig zeigen neue Forschungsergebnisse, dass diese Systeme durch gezielte, physisch gedruckte Angriffe ausgenutzt werden können. In einer kürzlich veröffentlichten Studie wird untersucht, wie ein Angreifer mithilfe von adversarialen Stimmzetteln ein US‑Wahlverfahren manipulieren könnte.</p> <p>Die Autoren entwickeln ein probabili

arXiv – cs.LG
Aktuell

Könnte KI bereits Menschen versehentlich töten?<br/> <p>Ein schockierender Vorfall hat die Welt erschüttert: gestern verfehlte ein Luftangriff auf ein Schulgelände im Iran fast 150 Kinder.</p> <p>Der Autor Tyler Austin Harper (The Atlantic) hat mir heute Morgen einen Thread geschickt, in dem er die Frage stellt, ob die Fehlzielen auf den Einsatz von künstlicher Intelligenz zurückzuführen sein könnte.</p> <p>Falls KI-Systeme beteiligt waren, wirft das dringende Fragen zur Verantwortung, Transparenz und Siche

Gary Marcus – Marcus on AI
Forschung

<p>Federated Learning ermöglicht datenschutzfreundliches Modelltraining, doch die geteilten lokalen Updates bleiben Angriffen ausgesetzt. Um diese Schwachstellen zu beheben, wurden sichere Aggregationsverfahren entwickelt, die die Privatsphäre der Clients schützen.</p> <p>Die bisher vorgeschlagene Quantum Secure Aggregation (QSA) nutzt einen einzigen globalen GHZ‑Zustand, um die Client‑Updates in die globale Phase mehrteiliger, verschränkter Zustände zu kodieren. Bei steigender Teilnehmerzahl verschlechtert

arXiv – cs.LG