Apple und Google profitierten von Apps, die Fake‑Nudity erzeugen
Forscher des Tech Transparency Project haben eine Vielzahl von mobilen Anwendungen entdeckt, die es Nutzern ermöglichen, gefälschte, nicht einvernehmliche Nacktbilder von echten Personen zu erstellen. Diese Apps nutzen KI‑Technologien, um realistische Bilder zu generieren, die keinerlei Zustimmung der abgebildeten Personen erfordern.
Obwohl Apple und Google öffentlich betonen, dass sie solche Software aus ihren App-Stores entfernen, zeigt die Studie, dass beide Unternehmen erhebliche Einnahmen aus KI‑Apps erzielt haben, die das Entblößen von Personen erleichtern. Die Gewinne aus diesen Anwendungen sind in die Millionenhöhe gestiegen, während die Plattformbetreiber weiterhin ihre Richtlinien zur Verhinderung von Missbrauch bekräftigen.
Die Ergebnisse verdeutlichen einen deutlichen Widerspruch zwischen den erklärten Richtlinien und der tatsächlichen Marktdurchdringung dieser gefährlichen Anwendungen. Sie werfen wichtige Fragen zur Durchsetzung von Sicherheitsstandards und zum Schutz der Nutzer vor digitalem Missbrauch auf.