Generative KI: „Associative Poisoning“ manipuliert feine Merkmale
Die rasante Verbreitung von generativen Modellen wie Stable Diffusion und ChatGPT hat sie zu begehrten Zielen für böswillige Angriffe gemacht. Besonders gefährlich sind Datenvergiftungen, die die Qualität der erzeugten Inhalte mindern oder die Trainingsprozesse manipulieren.