HOME

Künstliche Intelligenz: Warum Facebook das Christchurch-Video erst viel zu spät auffiel

Gewalttätige Inhalte verbreiten sich auf Facebook rasend. Eine Software auf Basis Künstlicher Intelligenz soll entsprechende Fotos und Videos früh erkennen und löschen - beim Christchurch-Massaker allerdings . Wie ist das möglich?

Facebooks Künstliche Intelligenz erkannte Gewalt in Christchurch-Videos nicht

Das Videostandbild aus einem von dem Attentäter selbst aufgenommenen und über Facebook verbreiteten Video, zeigt den Attentäter beim Betreten der Moschee in Christchurch, kurz bevor er das Feuer eröffnet.

DPA

Am 15. März zur Mittagszeit dringt ein bewaffneter Mann in die Masjid-al-Noor-Moschee im neuseeländischen Christchurch ein und schießt mit einer Schnellfeuerwaffe um sich. Er tötet mehr als 40 Muslime, die sich im Mittagsgebet befinden. Fünf Kilometer entfernt werden bei einem weiteren Angriff auf eine kleine Vorortsmoschee mindestens sieben weitere Menschen getötet. Das Massaker wird im Livestream auf der Facebook-Seite des Täters gezeigt, minutenlang.

Facebooks Software auf Basis künstlicher Intelligenz, die in Livestreams auf der Plattform unter anderem Gewalt erkennen soll, hat beim Video des Massakers von Christchurch nicht reagiert. "Um das zu erreichen, müssen wir unsere Systeme erst mit großen Mengen von Daten von genau solchen Inhalten versorgen - was schwierig ist, da solche Ereignisse dankenswerterweise selten sind", erklärte das Online-Netzwerk am Donnerstag. 

Gewaltvideo von Christchurch ähnelt Videospielen

Eine weitere Herausforderung für die Software sei, echte Gewalt von der Übertragung von Videospiel-Szenen zu unterscheiden. "Wenn unsere Systeme zum Beispiel bei tausenden Stunden von Livestreams aus Videospielen Alarm schlagen würden, könnten unsere Prüfer die wichtigen Videos aus der realen Welt verpassen", bei denen Facebook Helfer alarmieren könnte.

Der Attentäter, der am vergangenen Freitag 50 Menschen bei Angriffen auf zwei Moscheen im neuseeländischen Christchurch tötete, übertrug die Attacke in Echtzeit beim Dienst Facebook Live. Das Unternehmen bekräftigte frühere Angaben, wonach der 17-minütige Livestream von weniger als 200 Nutzern gesehen wurde und der erste Nutzerhinweis 12 Minuten nach dem Ende der Übertragung das Online-Netzwerk erreichte. Nach dem Ende eines Livestreams bleibt eine Aufzeichnung verfügbar.

Niemand meldete die Live-Übertragung bei Facebook

Nach wie vor bleibt unklar, wie lange das ursprüngliche Video des Angreifers online war, bevor es von Facebook entfernt wurde. Das Online-Netzwerk erklärte, dass der Hinweis schneller bearbeitet worden wäre, wenn jemand das Video noch während des Livestreams gemeldet hätte. Das ursprüngliche Video sei rund 4000 Mal gesehen worden - zur späteren Verbreitung habe aber beigetragen, dass mehrere Nutzer Kopien bei anderen Diensten hochgeladen hätten.

Facebooks Software blockierte in den ersten 24 Stunden zwar 1,2 Millionen Versuche, das Video erneut hochzuladen - ließ aber auch rund 300.000 Uploads durch. Das liege unter anderem daran, dass man es mit über 800 veränderten Varianten des Videos zu tun gehabt habe.

sve / DPA