Forschung
<p>Diffusionsmodelle: Geometrische Analyse zeigt, wann Daten aus Training ausspucken</p> <p>Neues Forschungspapier auf arXiv beleuchtet, wie Diffusionsmodelle – die Algorithmen, die für die Erzeugung hochqualitativer Bilder und Texte bekannt sind – ungewollt Trainingsdaten ausspucken können. Die Autoren stellen fest, dass das Risiko des Ausspuckens von privaten Daten stark von der Stufe des Rauschens abhängt, das während des Trainingsprozesses eingesetzt wird.</p> <p>Durch die Einteilung des Rauschens in dr
arXiv – cs.LG