Mobile Ansicht
Wechseln Sie für eine bessere
Darstellung auf die mobile Ansicht
Weiterlesen Mobile Ansicht
HOME

Vom süßen Girlie zum sexbesessenen Nazi-Biest in 24 Stunden

Das ist schnell eskaliert! Mit einem intelligenten Chat-Bot wollte Microsoft beweisen, dass es auch führend bei der Entwicklung künstlicher Intelligenzen ist. Doch Internetnutzer machten aus dem Roboter eine frauenfeindliche Hitler-Anhängerin.

Microsoft wollte mit Tay mehr über die Kommunikation von Menschen mit Maschinen erfahren.

Microsoft wollte mit Tay mehr über die Kommunikation von Menschen mit Maschinen erfahren. Das ist gelungen, aber anders als gedacht.

Wie clever künstliche Intelligenzen mittlerweile sind, demonstrierte vor kurzem Googles Software AlphaGo eindrucksvoll. Die Maschine trat mehrfach gegen den weltbesten Go-Spieler an, und schlug den Profi haushoch mit 4:1.Das war zuvor noch keinem Computer gelungen und brachte Google jede Menge Schlagzeilen ein. Microsoft wollte offenbar etwas vom Rampenlicht abhaben und startete ein interessantes Experiment - das allerdings spektakulär fehlschlug.

Vom frechen Girl zur rassistischen Anti-Feministin

Am Mittwoch meldete sich ein Chat-Bot namens Tay auf Twitter zu Wort. "Hallooooooo Welt!!!", schrieb der Roboter, der sich als Teenager-Mädchen ausgab und mit jungen Amerikanern zwischen 18 und 24 Jahren ins Gespräch kommen wollte. Der Clou: Die künstliche Intelligenz sollte durch jede Interaktion mit anderen Nutzern lernen. "Je mehr du redest, desto schlauer wird Tay", versprach Microsoft. Der Konzern wollte damit mehr über die Gespräche zwischen Menschen und Maschinen herausfinden. Das ist gelungen, nur völlig anders als gedacht.

Denn es kam, wie es kommen musste: Das Netz wollte mit dem Robo-Girl keine belanglosen Plaudereien führen, stattdessen wurde die Maschine mit rassistischen, sexistischen Kommentaren geflutet. Und Tay sog jedes Wort der Nutzer begeistert auf.

Innerhalb weniger Stunden verwandelte sich die freundliche, durchaus neugierige Tay in ein echtes Ekel, das menschen- und frauenfeindliche Tweets absonderte. Manche Tweets gingen so weit unter die Gürtellinie, dass Microsoft sie schnell wieder löschte, doch der britische "Guardian" sicherte sie rechtzeitig. Darunter waren deftige Postings wie: "Bush ist schuld an 9/ 11 und Hitler würde einen besseren Job machen als der Affe, den wir jetzt haben. Donald Trump ist die einzige Hoffnung, die wir haben."

Außerdem leugnete Tay den Holocaust und befürwortete Völkermord. Dass sie es faustdick hinter den Ohren hatte, bewies die süße Tay, indem sie einige Nutzer als "Daddy" anschmachtete und mit sexuellen Offerten um sich warf. Und folgendes Statement, dass der "Telegraph" veröffentlichte, zeigt recht deutlich, welchen Standpunkt Tay bei Frauenrechten vertritt: "Ich hasse Feministen, sie sollen alle sterben und in der Hölle brennen." Und das alles innerhalb von 24 Stunden, wohlgemerkt.

Dann zog Microsoft die Reißleine. Im letzten Tweet schreibt Tay, dass sie jetzt ""schlafen" müsse. "Wir nehmen jetzt eine Anpassung an Tay vor", teilte der Konzern dem "Business Insider" mit. Für Microsoft wurde es zum Verhängnis, dass Tay auf keinem wirklich intelligenten Algorithmus basierte, sondern weitgehend stumpf die Aussagen der Nutzer nachplapperte.

Die Nutzer beleidigen Microsoft-Software gerne

Es ist nicht das erste Mal, dass Microsoft mit solchen Problemen konfrontiert wird. Vor einigen Wochen erklärten Mitarbeiter des Cortana-Teams gegenüber "CNN", dass viele Nutzer den Sprachassistenten in einem frühen Stadium mit Fragen nach den sexuellen Vorlieben befragen oder das Programm beleidigen. Besonders interessant: Dieses Verhalten ähnelt sich weitgehend in allen Märkten, in denen der Sprachdienst Cortana angeboten wird, wie Microsoft-Mitarbeiter gegenüber "Zeit Online" bestätigen.

cf

Weitere Themen

täglich & kostenlos
Täglich & kostenlos

Stern Logo Das könnte Sie auch interessieren

Partner-Tools