Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “TTA”
Forschung

<p>Neuer Signatur-Ansatz schützt Graph Neural Networks vor Modellextraktion</p> <p>Ein neues Verfahren namens CITED bietet einen robusten Schutz für Graph Neural Networks (GNNs) gegen Model Extraction Attacks (MEAs). Während GNNs in Bereichen wie Empfehlungssystemen und Finanzrisikomanagement hervorragende Ergebnisse liefern, ist die lokale Bereitstellung großer Modelle wegen hoher Rechen- und Datenanforderungen schwierig. Deshalb greifen viele Nutzer auf Machine Learning as a Service (MLaaS) zurück, wo die

arXiv – cs.LG
Forschung

Distillation: Wie wichtig ist sie für chinesische LLMs? Anthropic hat kürzlich einen Beitrag veröffentlicht, in dem die Anfälligkeit von distillierten Modellen für sogenannte „Distillation Attacks“ beleuchtet wird. In diesem Kontext haben Fachleute aus China ihre Sichtweise dargelegt: Distillation bleibt ein zentraler Prozess, um große Sprachmodelle in kompaktere, ressourcenschonende Varianten zu überführen, die für den Einsatz in mobilen und eingebetteten Systemen geeignet sind. Die Experten betonen, d

Interconnects – Nathan Lambert
Forschung

<p>Physikalisch bedingte Angriffe auf Weltmodelle: Neue Sicherheitslücke entdeckt</p> <p>In einer wegweisenden Studie wird gezeigt, dass generative Weltmodelle, die zunehmend für die Erzeugung kontrollierter, sensorischer Fahrvideos eingesetzt werden, durch physikalische Vorannahmen anfällig für neue Angriffsmöglichkeiten sind. Das vorgestellte Verfahren, PhysCond‑WMA, ist der erste White‑Box-Angriff auf Weltmodelle, der gezielt physikalische Konditionskanäle wie HDMap‑Einbettungen und 3‑D-Box‑Features mani

arXiv – cs.LG