LLMs: Mit Selective Gradient Masking gefährliche Fähigkeiten gezielt entfernen
Die neuesten Erkenntnisse aus dem arXiv‑Papiervorschlag Beyond Data Filtering: Knowledge Localization for Capability Removal in LLMs (arXiv:2512.05648v1) zeigen, wie man die dual‑use‑Gefahren von großen Sprachmodellen g…