Hierarchisches Dual-Strategie-Unlearning schützt medizinische KI vor Datenschutzverletzungen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Neues Forschungsergebnis aus dem Bereich der künstlichen Intelligenz zeigt, wie große Sprachmodelle (LLMs) gezielt ihr Wissen über sensible Patientendaten zurückgeben können, ohne dabei die grundlegenden medizinischen Fähigkeiten zu verlieren. Durch einen innovativen Ansatz, der geometrisch begrenzte Gradientenupdates mit tokenbasierten Konzeptinterventionen kombiniert, lässt sich das Modell auf einer vierstufigen medizinischen Konzepthierarchie selektiv „auslernen“.

In umfangreichen Tests mit den Datensätzen MedMCQA (chirurgische Fragen) und MHQA (Angst, Depression, Trauma) erreichte die Methode einen bemerkenswerten Vergessensgrad von 82,7 % und bewahrte gleichzeitig 88,5 % des notwendigen Fachwissens. Dabei wurden lediglich 0,1 % der Modellparameter angepasst – ein entscheidender Vorteil für die Einhaltung gesetzlicher Vorgaben, die Nachvollziehbarkeit von Entscheidungen und ethische Standards in der klinischen Forschung.

Ähnliche Artikel