Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Auditing”
Forschung

<p>AST-PAC: Syntaxbasierte Methode verbessert Auditing von Code‑Modellen</p> <p>In der Welt der Code‑Large‑Language‑Models (LLMs) entstehen durch die Nutzung großer, oft lizenzbeschränkter Datensätze erhebliche Herausforderungen im Bereich Daten­governance und Urheberrecht. Membership‑Inference‑Attacks (MIAs) bieten hier einen vielversprechenden Ansatz, um unautorisierte Datenverwendung aufzudecken.</p> <p>Während die klassische Loss‑Attack als Basis dient, bleibt die Polarized Augment Calibration (PAC) im

arXiv – cs.AI
Forschung

Auditierung von Multi-Agenten-LLM-Denkbäumen übertrifft Mehrheitsabstimmung In der Forschung zu Multi-Agenten-Systemen (MAS) wird die Rechenkraft großer Sprachmodelle (LLMs) häufig durch die Zusammenarbeit mehrerer Agenten erweitert. Dennoch setzen die meisten Ansätze noch immer auf eine einfache Mehrheitsabstimmung, um die einzelnen Agentenausgaben zu aggregieren. Diese Heuristik ignoriert jedoch die eigentliche Beweiskette der einzelnen Denkpfade und ist besonders anfällig, wenn die Agenten zu einer

arXiv – cs.AI
Forschung

<p>Mobility‑Vorhersagen: Neue Methode senkt Rassen‑Ungleichheiten um 40 %</p> <p>In einer aktuellen Studie aus dem arXiv‑Repository wurde die Leistung von hochmodernen Mobilitätsvorhersagemodellen auf einer großen Datensammlung systematisch untersucht. Dabei zeigte sich, dass die Genauigkeit der Vorhersagen stark von der Rasse und Ethnie der Nutzer abhängt – ein Problem, das bisher kaum Beachtung fand.</p> <p>Um diese Diskrepanzen zu adressieren, stellen die Autoren die Fairness‑Guided Incremental Sampling

arXiv – cs.LG
Forschung

<p>Mehr Referenzdaten nötig: Studie zeigt Grenzen Membership‑Inference‑Angriffen</p> <p>Ein neuer Beitrag auf arXiv untersucht, wie viele zusätzliche Daten ein Angreifer benötigt, um festzustellen, ob ein Individuum im Trainingsdatensatz eines Modells enthalten ist. Dabei wird die klassische Membership‑Inference‑Attacke – bei der ein Angreifer das Modelloutput und ein Zielobjekt nutzt – auf die Frage der Sample‑Komplexität fokussiert.</p> <p>Die Autoren konzentrieren sich auf das fundamentale Problem der Ga

arXiv – cs.LG