Anzeige
Anzeige

Fehler auf Videoplattform Sie führten ein harmloses Gespräch über Schach – dann brandmarkte Youtube sie als Rassisten

Ein Schachspiel kann den Youtube-Algorithmus offenbar überfordern, wie ein Experiment zeigte
Ein Schachspiel kann den Youtube-Algorithmus offenbar überfordern, wie ein Experiment zeigte
© Getty Images
Schach-Fans unterhalten sich auf Youtube über Eröffnungen und Partien - dann ist das Video plötzlich wegen Hassrede gesperrt. Was wie ein kurioser Fehler klingt, zeigt in Wahrheit die Grenzen der Künstlichen Intelligenz.

Soziale Netzwerke, wie wir sie heute kennen, würden ohne Künstliche Intelligenzen nicht mehr funktionieren. Denn mittlerweile werden so viele Inhalte im Minutentakt erstellt, dass keine menschliche Abteilung der Welt diese mehr überprüfen könnte. Deshalb analysieren Algorithmen automatisiert Bilder, Postings und Videos und halten nach Anzeichen von Extremismus und anderen strafbaren Handlungen Ausschau.

Dabei kommt es immer wieder zu Fehlalarmen. Einen Fall schilderte nun das US-Technikmagazin "Wired". Der Kroate Antonio Radic betreibt auf Youtube einen beliebten Schach-Kanal mit mehr als einer Million Abonnenten. Im vergangenen Sommer sprach er dort live mit dem Schachgroßmeister Hikaru Nakamura. Sie diskutierten über berühmte Partien und Eröffnungen, etwa die Königsindische Verteidigung - bis der Stream plötzlich abbrach. Zu sehen war nur noch ein Warnhinweis, dass das Video wegen "schädlicher und gefährlicher" Inhalte unterbrochen wurde. 24 Stunden war das Video offline, bis es wieder erreichbar war.

Sorgten "schwarz" und "weiß" für einen KI-Ausfall?

Was genau dazu führte, lässt sich nicht mehr nachvollziehen. Das Videoportal Youtube wollte sich auf Anfrage von "Wired" nicht detailliert zu dem Fall äußern und erklärte nur, es habe sich um einen Fehler gehandelt. Jedoch legt eine neue Studie nahe, dass das Video aufgrund eines Fehlers der Künstlichen Intelligenz entfernt wurde. Diese KI soll eigentlich Hassreden, Missbrauch und Fehlinformationen erkennen .

Ashique KhudaBukhsh, ein auf KI spezialisierter Projektwissenschaftler an der Carnegie Mellon University und selbst Schachspieler, stellte die These auf, ob der Algorithmus womöglich durch die Diskussion zum Video verwirrt wurde. Denn im Schach spricht man sehr häufig über schwarze und weiße Figuren, über Angriffe und Verteidigungen. Alles Schlagworte, die im Kontext nicht bemerkenswert sind, für eine Maschine in dieser Häufung jedoch auffällig sein könnten.

Um seine These zu überprüfen, entwickelte er gemeinsam mit einem Ingenieur der Carnegie Mellon University ein Experiment. Dafür trainierten sie zwei Versionen eines Sprachmodells, eine mit Nachrichten von einer rassistischen, rechtsextremen Webseite und die andere mit Daten von Twitter. Anschließend überprüften die Algorithmen Texte und Kommentare von 8818 Schachvideos. Das Ergebnis: Die Algorithmen markierten etwa ein Prozent der Transkripte oder Kommentare als Hassrede.

Jedoch waren mehr als 80 Prozent der markierten Texte falsch positiv. Im Kontext waren die dort verwendeten Formulierungen nicht rassistisch. Es zeigte sich: Ohne einen Menschen in der Überprüfungsschleife wurden am laufenden Band Fehlentscheidungen getroffen.

Künstliche Intelligenz

KI verwechselte Note-Dame-Brand mit 9/11

Es ist nicht das erste Mal, dass der Erkennungs-Algorithmus von Youtube derart daneben liegt. Im Frühjahr 2019, als die Kathedrale in Notre Dame lichterloh brannte und Flammen aus dem Dachstuhl des monumentalen Sakralbaus schlugen, kursierten schnell hunderte Videos des Unglücks in sozialen Netzwerken und auf Youtube. Wer die Livestreams in den USA oder in Südkorea verfolgte, bekam unterhalb des Youtube-Videos jedoch einen Hinweis mit weiterführenden Informationen zum Terroranschlag auf das World Trade Center am 11. September 2001 angezeigt.

Dabei handelte es sich um eine Fehlfunktion des sogenannten "Knowledge Panel", das 2018 von der Google-Tochter eingeführt wurde, um die Verbreitung von Fake News und Verschwörungstheorien durch zusätzliche Aufklärung einzudämmen. Durch den Hinweis unter den Notre-Dame-Videos wurde jedoch der Eindruck erweckt, bei den Videos des Brandes in Paris handele es sich um Falschmeldungen zum Anschlag auf das World Trade Center. Es war ein Fehler der Künstlichen Intelligenz, für den sich Youtube später entschuldigte.

Lesen Sie auch:

Die dunkle Seite von Instagram : Ein Mordfall in den USA zeigt die Machtlosigkeit der sozialen Netzwerke

Interview mit Datenschützer Johannes Caspar: "Google verfügt über eine riesige Überwachungsmaschinerie“

Trick mit dem Gewicht: Mann betrügt Amazon um 330.000 Euro, weil er Pakete mit Erde statt Waren zurück

Mehr zum Thema

Newsticker

VG-Wort Pixel