Quantum Machine Unlearning: Zielgerichtete, kontrollierte Vergessen-Strategie
In der Welt der Quanten-KI wird das Konzept des „Machine Unlearning“ immer wichtiger: Man möchte den Einfluss bestimmter Trainingsdaten aus einem Modell entfernen, ohne das gesamte Modell neu zu trainieren. Bisherige Ansätze im Quantenbereich setzten meist auf ein einheitliches Zielverteilungsschema und kontrollierten kaum, wie viel des ursprünglichen Verhaltens erhalten bleibt.
Die neue Studie präsentiert ein distribution‑guided Framework, das Unlearning als ein konstrahiertes Optimierungsproblem behandelt. Dabei wird eine anpassbare Zielverteilung aus Modell‑Ähnlichkeitsstatistiken abgeleitet, sodass die Reduktion der Konfidenz für das zu vergessende Klassenset unabhängig von Annahmen über die Umverteilung unter den verbleibenden Klassen bleibt.
Ein weiteres Highlight ist die Einbindung einer anchor‑basierten Erhaltungsbedingung, die explizit das Vorhersageverhalten auf ausgewählten, beibehaltenen Daten festhält. Dadurch folgt die Optimierung einem kontrollierten Pfad, der Abweichungen vom ursprünglichen Modell minimiert.
Die Methode wurde an variationalen Quantenklassifikatoren getestet, die auf den Iris‑ und Covertype‑Datensätzen trainiert wurden. Die Ergebnisse zeigen eine scharfe Unterdrückung der Konfidenz für die vergessenen Klassen, kaum Leistungseinbußen bei den verbleibenden Klassen und eine engere Übereinstimmung mit den goldenen Retraining‑Baselines als bei herkömmlichen, uniformen Zielverteilungen.
Diese Erkenntnisse unterstreichen die Bedeutung einer durchdachten Zielverteilung und constraint‑basierten Formulierungen für ein zuverlässiges und nachvollziehbares Quanten‑Machine‑Unlearning.