Vor drei Monaten meldete sich "Claudia" zum ersten Mal auf der Diskussionsplattform "Reddit". Die Person hinter dem Account zeichnete das Bild einer freizügigen jungen Frau, die ihre intimen Bettgeschichten ausplaudert. Nach rund einem Monat folgte das erste Bild. Es zeigte eine Frau auf einem Waldweg, bekleidet mit einem Minirock, Strumpfhose und einem bauchfreien Oberteil mit großzügigem Ausschnitt. Das Gesicht sieht man nicht, doch Aufmerksamkeit bekam das Bild.
Wieder einen Monat später folgte ein Bild vom Rücken der Frau. Man sieht darauf einen Tanga, einen BH und viel Haut. Erneut kein Gesicht. Das kam erst zwei Wochen später. "Claudia" zeigte sich in einem Unterforum für Porträts und bekam erneut viele Komplimente. Doch sie ging damit einen Schritt zu weit.
Erstmals bemerkten ein paar Nutzer:innen, dass es sich vielleicht um unechtes Bildmaterial handeln könnte. Da half es auch nicht mehr, dass die Person, die den Account von "Claudia" betreibt, wenig später ein Nacktbild veröffentlichte. Auch wenn sich in den Kommentaren unter dem expliziten Inhalt wieder keiner beschwerte, dass das, was man dort sieht, nicht real sein könnte.
Zwei Studenten haben KI-"Claudia" erfunden
Bis zuletzt blieb es ein Rätsel, wer hinter "Claudia" steckt – und ob es nicht doch vielleicht eine echte, sehr attraktive Frau sein könnte, die sich Fremden so freizügig präsentiert. Im Gespräch mit dem "Rolling Stone" haben sich dann die beiden Männer, die "Claudia" erfunden haben, zu erkennen gegeben: "Claudia" ist eine durch das KI-Tool Stable Diffusion erstellte Schöpfung, mit der zwei Studenten testweise Geld verdienen wollten. Und das hat geklappt.
Die Idee zu diesem Projekt sei entstanden, als die beiden von einem Fall erfuhren, bei dem ein Reddit-Nutzer von seinem finanziellen Erfolg mit dem Verbreiten von geklauten Bildern echter Frauen berichtete. Sie wollten testen, ob das auch mit künstlich erstellten Bildern funktioniert, deren Urheberrecht, anders als bei gestohlenen Bildern, mindestens unklar ist und vielleicht sogar bei den Erstellern liegt. So richtig eindeutig ist das bisher nicht geklärt.
Kunst durch künstliche Intelligenz: Midjourney und die Zukunft der Kreativität

Bis "Claudia" aufflog, verdienten die beiden Studenten mit dem Verkauf von Auftragsarbeiten der unechten Person nach eigenen Angaben 100 US-Dollar. Dem "Rolling Stone" sagten "Claudias Schöpfer": "Man könnte sagen, dass dieser ganze Account nur ein Test war, um zu sehen, ob man die Leute mit KI-Bildern täuschen kann. Man könnte es mit den Vtubern vergleichen, die ihre eigenen Charaktere erstellen und als eine völlig andere Person spielen. Wir hätten ehrlich gesagt nicht gedacht, dass es so viel Anklang finden würde."
Mit Vtubern sind virtuelle Personen gemeint, die zum Beispiel auf Streamingplattformen wie Twitch viele Zuschauer anlocken und deren "Eigentümer" sich meist nicht zu erkennen geben. Es gibt sprechende Tiere, junge Frauen im Manga-Look und vieles mehr – nicht wenige Firmen finden inzwischen Gefallen an solchen künstlichen Influencern und schließen lukrative Werbedeals mit den Betreibern ab. "lilmiquela" bespaßt auf Instagram beispielsweise 2,8 Millionen Follower, obwohl es sie nicht gibt.
Viele KI-Tools setzen enge Grenzen – aber nicht alle
Mit dem Aufkommen sehr einfacher Tools, wie beispielsweise Stable Diffusion, die den Erstellern von Bildern zudem relativ wenige Grenzen setzen, dürfte ein Fall wie der von "Claudia" erst der Anfang sein. Das bestätigen auch die beiden Studenten und sagen, dass es immer mehr solcher Accounts geben wird. Ohne Regulierung oder Kennzeichnungspflicht, wird es damit zunehmend komplizierter, Realität von Fiktion zu unterscheiden.
Was anzügliche Inhalte angeht, sperren viele Bildgeneratoren die meisten Versuche, Bilder zu erstellen. Selbst Stable Diffusion schiebt dem Versuch, pornografische Szenen zu erstellen, auf der Hauptseite einen Riegel vor. Bewegt man sich allerdings innerhalb des erlaubten Rahmens, ist es ein Leichtes, ganze Bildbände künstlicher Personen zu entwerfen. Für alles, was darüber hinausgeht, entstehen derweil Alternativen, beispielsweise "Unstable Diffusion", wie das Fachmagazin "Golem" schreibt.