FairGU: Fairness‑bewusstes Graph‑Unlearning schützt Nutzer‑Daten
Graph‑Unlearning hat sich als entscheidendes Werkzeug für nachhaltige und datenschutzfreundliche soziale Netzwerke etabliert. Es ermöglicht Modellen, den Einfluss gelöschter Knoten zu entfernen und so die Privatsphäre der Nutzer zu stärken. Doch bisher haben bestehende Verfahren die Fairness gegenüber sensiblen Attributen nicht ausreichend berücksichtigt, was zu einer Verschlechterung der algorithmischen Gerechtigkeit im Vergleich zu herkömmlichen Graph‑Learning‑Methoden führt.
Um dieses Problem zu lösen, präsentiert das Forschungsteam FairGU – ein fairness‑bewusstes Graph‑Unlearning‑Framework, das sowohl die Nützlichkeit als auch die Fairness während des Unlearning‑Prozesses bewahrt. FairGU integriert ein spezielles Fairness‑Modul und effektive Daten‑Schutzstrategien, sodass sensible Attribute weder unbeabsichtigt verstärkt noch strukturell offengelegt werden, wenn Knoten entfernt werden.
Durch umfangreiche Experimente an mehreren realen Datensätzen hat FairGU gezeigt, dass es die führenden Graph‑Unlearning‑Methoden und Fairness‑verbessernde Graph‑Learning‑Baselines in Bezug auf Genauigkeit und Fairness‑Metriken übertrifft. Die Ergebnisse verdeutlichen ein bislang übersehenes Risiko in aktuellen Unlearning‑Praktiken und etablieren FairGU als robuste, gerechte Lösung für die nächste Generation sozial nachhaltiger Netzwerke.
Der Quellcode ist frei verfügbar unter https://github.com/LuoRenqiang/FairGU.