<h1>Fine‑Tuning schützt LLM‑Embeddings vor Rekonstruktionsangriffen</h1> <p>Eine neue Untersuchung zeigt, dass das Feintuning großer Sprachmodelle die Anfälligkeit ihrer Embeddings für Rekonstruktionsangriffe deutlich reduziert. Dabei wurden die Modelle auf dem HS3D‑Datensatz für menschliche Splice‑Sites trainiert, um die Auswirkungen einer task‑spezifischen Optimierung auf die Privatsphäre zu analysieren.</p> <p>Die Studie baut auf der Arbeit von Pan et al. auf, die bewiesen haben, dass Embeddings aus vort

arXiv – cs.LG Original
Anzeige