Forschung
<p>Neuer Signatur-Ansatz schützt Graph Neural Networks vor Modellextraktion</p> <p>Ein neues Verfahren namens CITED bietet einen robusten Schutz für Graph Neural Networks (GNNs) gegen Model Extraction Attacks (MEAs). Während GNNs in Bereichen wie Empfehlungssystemen und Finanzrisikomanagement hervorragende Ergebnisse liefern, ist die lokale Bereitstellung großer Modelle wegen hoher Rechen- und Datenanforderungen schwierig. Deshalb greifen viele Nutzer auf Machine Learning as a Service (MLaaS) zurück, wo die
arXiv – cs.LG