Datenvergiftung im ML: Warum und wie Angreifer Trainingsdaten manipulieren
In der Welt des maschinellen Lernens gewinnt das Phänomen der Datenvergiftung zunehmend an Bedeutung. Dabei handelt es sich um gezielte Manipulationen von Trainingsdatensätzen, die darauf abzielen, die Leistung von Modellen zu verschlechtern oder sie in gewünschte Richtungen zu lenken. Die Bedrohung ist nicht nur theoretisch, sondern hat bereits in mehreren realen Szenarien nachgewiesen, dass Angreifer durch das Einbringen fehlerhafter oder sogar böswilliger Daten signifikante Schäden verursachen können.