Neuer Angriff CAMIA deckt auf, welche Daten KI-Modelle speichern
Forscher haben einen brandneuen Angriff entwickelt, der die Datenschutzlücken von KI-Modellen aufdeckt, indem er nachweist, ob persönliche Daten zur Schulung verwendet wurden. Der Ansatz, der als CAMIA (Context‑Aware Membership Inference Attack) bezeichnet wird, stammt von Wissenschaftlern der Brave Corporation und der National University of Singapore.