Text‑zu‑Bild‑Modelle lassen sich leicht identifizieren – Gefahr für Leaderboards
Generative‑AI‑Leaderboards, die die Leistungsfähigkeit von Modellen bewerten, sind ein zentrales Instrument in der Forschung, aber gleichzeitig ein Ziel für Manipulationen. Besonders gefährlich ist die Rangmanipulation, bei der ein Angreifer die Modelle hinter den angezeigten Ausgaben erst deanonymisieren muss – ein Problem, das bereits bei großen Sprachmodellen (LLMs) untersucht wurde.