Massive Kritik an Foto-Programm App zieht Frauen aus: Betreiber machen Rückzieher – allerdings mit fragwürdiger Begründung

Die App "DeepNude" erzeugt innerhalb von Sekunden aus normalen Bildern Nacktfotos. Nach heftiger Kritik haben die Macher die Deepfake-App nun eingestellt. Angeblich aus Sicherheitsbedenken.

Stell dir vor, jeder könnte einfach ein Nacktbild von dir machen – und es irgendwo hochladen oder an deine Freunde verschicken. Klingt unrealistisch? Schließlich können die wenigsten wirklich realistisch einen Kopf auf einen anderen Körper photoshoppen. Das mag stimmen – aber das muss man auch gar nicht mehr. Warum, beweist die App "DeepNude": Mit der DeepFake-App kann man mit Hilfe von Künstlicher Intelligenz in Sekundenschnelle realistische Nacktfotos von Frauen erzeugen. Nachdem zahlreiche Medien über die App berichtet hatten, zogen die Entwickler nun die Notbremse und stellten die App ein. Angeblich, weil zu viele Nutzer die Anwendung heruntergeladen hatten.

Die App, die erst vor wenigen Monaten gestartet ist, nutzt die sogenannte Deepfake-Technologie – mit Hilfe von Künstlischer Intelligenz werden dabei täuschend echte Bilder oder Videos erzeugt. Somit kann bei "DeepNude" das Foto einer vollkommen bekleideten Frau in ein Nacktbild umgewandelt werden. Neben einer kostenlosen Version boten die Entwickler auch eine Premium-Variante für 100 Dollar an, bei der man höher aufgelöste Fotos erzeugen konnte. Zwar waren die Fotos mit einem Wasserzeichen versehen, das sie als Fake kennzeichnen soll – allerdings ließ sich dieses mit ein bisschen technischem Wissen leicht entfernen, wie einigen Medien beim Testen der App nachwiesen. Eine Version, in der Männer entkleidet werden können, gibt es übrigens nicht.

Über 500.000 Downloads

Zwar gab es die App schon seit einiger Zeit zum Download für Windows, doch in den letzten Wochen waren immer mehr Medien auf die Anwendung aufmerksam geworden, hatten darüber berichtet und auf mögliche Gefahren hingewiesen. Schließlich entschieden sich die Macher, "DeepNude" ganz einzustellen. In einem Post auf Twitter erklärten sie ihre angeblichen Gründe: "Wir hätten niemals gedacht, dass sich das so verbreiten würde und wir nicht mehr in der Lage sind, den Datenfluss zu kontrollieren", heißt es dort. Trotz Sicherheitsmaßnahmen sei das Risiko eines Missbrauchs bei insgesamt rund 500.000 Nutzern zu groß. "Wir wollen auf diese Weise kein Geld machen", erklärten die Entwickler. Die Welt sei noch nicht bereit für "DeepNude". Die Verbreitung der App wird daher mit sofortiger Wirkung eingestellt.

Gegenüber dem Online-Magazin "Vice", das als erstes über "DeepNude" berichtete, sagte der anonyme Macher der App, der sich Alberto nennt, er habe sich bei "DeepNude" von der Werbung für Röntgenbrillen in den 1960er und 1970er Jahren inspirieren lassen, mit denen man durch alles durchgucken können sollte. "Wie alle anderen war ich fasziniert von der Idee, dass sie wirklich existieren könnten und diese Erinnerung blieb", sagte er. Er sei aber kein Voyeur, sondern einfach nur ein Technologie-Enthusiast.

Die Reaktionen auf die App im Netz waren sehr kritisch: "Dies ist eine entsetzlich zerstörerische Erfindung, und wir hoffen, dass Ihr bald die Konsequenzen für Euer Handeln zu spüren bekommt", twitterte die Gruppe Cyber Civil Rights Initiative (CCRI), die sich für den Schutz vor sogenannter Rache-Pornografie einsetzt. Die Jura-Professorin und CCRI-Vorsitzende Mary Anne Franks twitterte, es sei gut, dass die App abgeschaltet worden sei, aber die Begründung ergebe keinen Sinn. Die App sei darauf ausgerichtet gewesen, den "grotesken sexuellen Fantasien armseliger Männer" zu dienen. Kritiker befürchteten unterdessen, dass einige Versionen der Software weiter verfügbar sein könnten.

An dieser Stelle hat unsere Redaktion Inhalte von Twitter / X integriert.
Aufgrund Ihrer Datenschutz-Einstellungen wurden diese Inhalte nicht geladen, um Ihre Privatsphäre zu schützen.
AFP
lau