Knowledge Distillation dominiert bei privatschutzoptimierten klinischen Sprachmodellen
Eine neue Vergleichsstudie auf arXiv zeigt, welche Methoden zum Schutz sensibler Patientendaten in klinischen Sprachmodellen am effektivsten sind. Die Autoren haben vier Trainingspipelines verglichen, die alle ein 1‑Bil…