Linearisierung durch Störung: Unlernbare Daten mit linearen Klassifikatoren
In einer Zeit, in der das Sammeln von Webdaten zur Schulung tiefer Lernmodelle immer üblicher wird, wächst die Sorge um unerlaubte Nutzung dieser Daten. Unlernbare Beispiele – unsichtbare Störungen, die Modelle daran hindern, effektiv zu lernen – sind ein vielversprechender Ansatz, doch bisher basieren die meisten Verfahren auf tiefen neuronalen Netzwerken als Surrogatmodelle, was enorme Rechenkosten verursacht.