Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Membership‑Inference‑Attack”
Forschung

<p>AST-PAC: Syntaxbasierte Methode verbessert Auditing von Code‑Modellen</p> <p>In der Welt der Code‑Large‑Language‑Models (LLMs) entstehen durch die Nutzung großer, oft lizenzbeschränkter Datensätze erhebliche Herausforderungen im Bereich Daten­governance und Urheberrecht. Membership‑Inference‑Attacks (MIAs) bieten hier einen vielversprechenden Ansatz, um unautorisierte Datenverwendung aufzudecken.</p> <p>Während die klassische Loss‑Attack als Basis dient, bleibt die Polarized Augment Calibration (PAC) im

arXiv – cs.AI
Forschung

<p>Profilbasierte Angriffe enthüllen Datenschutzrisiken bei Lerndiagnose-Modellen</p> <p>Moderne Lernplattformen nutzen kognitive Diagnosemodelle (CDMs), um Lernende sehr detailliert zu profilieren. Diese Modelle werden jedoch mit sensiblen Schülerdaten trainiert, was erhebliche Bedenken hinsichtlich des Datenschutzes aufwirft.</p> <p>Bislang wurde die Gefahr von Membership‑Inference‑Attacks (MIA) – Angriffen, die versuchen, festzustellen, ob ein bestimmter Datensatz im Trainingsmaterial enthalten war – kau

arXiv – cs.AI
Forschung

<p>Mehr Referenzdaten nötig: Studie zeigt Grenzen Membership‑Inference‑Angriffen</p> <p>Ein neuer Beitrag auf arXiv untersucht, wie viele zusätzliche Daten ein Angreifer benötigt, um festzustellen, ob ein Individuum im Trainingsdatensatz eines Modells enthalten ist. Dabei wird die klassische Membership‑Inference‑Attacke – bei der ein Angreifer das Modelloutput und ein Zielobjekt nutzt – auf die Frage der Sample‑Komplexität fokussiert.</p> <p>Die Autoren konzentrieren sich auf das fundamentale Problem der Ga

arXiv – cs.LG