Machine Unlearning: Unsichtbare Gefahr durch Restwissen
Machine Unlearning bietet eine praktische Alternative zum vollständigen Neu‑Training von Modellen, indem es den Einfluss bestimmter Nutzerdaten entfernt. Doch neue Forschungsergebnisse zeigen, dass diese Technik ein bislang unentdecktes Risiko birgt: selbst leicht veränderte „vergessene“ Stichproben können von dem unlearned Modell noch korrekt erkannt werden, während ein neu trainiertes Modell dies nicht mehr tut.