Forschung
Metamorphosis Representation Projection: Unlearning für sichere LLMs
Die Sicherheit großer Sprachmodelle (LLMs) wird zunehmend kritisch, weil sie potenziell gefährliches Wissen intern speichern können. Um die…
arXiv – cs.LG