Neuer Ansatz für gezieltes Vergessen in multimodalen Sprachmodellen
Multimodale Large Language Models (MLLMs) haben beeindruckende Fähigkeiten entwickelt, aber sie können unbeabsichtigt sensible Informationen speichern. Bestehende Methoden zum „Unlearning“ entfernen diese Daten zwar, führen jedoch häufig zu einem Verlust der allgemeinen Bildverständnisleistung. Ein neuer Ansatz namens Sculpted Memory Forgetting Adapter (SMFA) löst dieses Problem, indem er das Vergessen gezielt auf bestimmte Speicherbereiche beschränkt und gleichzeitig die Kernkompetenzen des Modells schützt.