HOME

Google wehrt sich mit künstlicher Intelligenz gegen Terror-Inhalte

Der Druck aus der Politik wächst immens, Google und andere Internet-Konzerne werden im Kampf gegen terroristische Inhalte stärker zur Verantwortung gezogen. Aber die Lösung des Problems ist knifflig.

Google-Schild in Paris

Google will terroristische Inhalte in Zukunft auch ohne die Hilfe von Nutzern entdecken

Der Kampf gegen der Terror ist auf allen Ebenen schwierig, im Internet sind nicht nur die staatlichen Institutionen zum Handeln aufgefordert, sondern auch die großen Konzerne. Um die millionenfachen terroristischen Inhalte aus dem Netz zu löschen, müssen sie schnell und effizient handeln. Auch der Druck aus der Politik wird immer größer. 

Nach Facebook kündigte am Wochenende nun auch Google an, stärker gegen den Netz-Terrorismus vorzugehen. Der Internet-Konzern werde dafür mehr Entwickler abstellen und seine modernste Technologie der selbstlernenden Maschinen nutzen, erklärte Google-Chefjurist Kent Walker.

Google zeigt sich einsichtig und will schnell handeln

Damit sollen unter anderem bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, werde stark erhöht, schrieb Walker in einem Beitrag in der Londoner Zeitung "Financial Times". Google setzt dabei auf "Trusted Flagger", das sind Einzelpersonen oder Organisationen, denen Google vertraut, wenn sie anstößige oder rechtswidrige Inhalte anzeigen. Das können auch Strafverfolgungsbehörden sein.

Walker betonte, Google, und andere Internet-Firmen arbeiteten zwar schon seit Jahren daran, solche Inhalte zu finden und zu löschen - aber "die unbequeme Wahrheit ist, dass wir als Industrie eingestehen müssen, dass noch mehr getan werden muss. Jetzt."

Auch Facebook nutzt selbstlernende Maschinen

Google setze bereits auf die Analyse von Videobildern, um Terror-Propaganda auch ohne Hinweise von Nutzern zu entdecken, betonte Walker. Mehr als die Hälfte der gelöschten Inhalte in den vergangenen sechs Monaten sei so gefunden worden. Entwickler des Internet-Konzerns hätten auch Technologien entwickelt, die ein erneutes Hochladen bereits bekannter terroristischer Videos verhindere.

Auch gab vor wenigen Tagen bekannt, dass selbstlernende Maschinen stärker dafür eingesetzt werden, solche Inhalte gar nicht erst wieder auf die Plattform durchzulassen. Zudem werde an einem Algorithmus gearbeitet, der durch Textanalyse terroristische Propaganda erkennen solle.

Deutschland zieht Unternehmen zur Verantwortung

Internet-Unternehmen stehen in Europa unter wachsendem Druck aus der Politik, härter gegen Terror-Inhalte vorzugehen. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte - und die großen Internetunternehmen ließen dies zu. In Deutschland sieht ein Gesetzentwurf von Bundesjustizminister Heiko Maas (SPD) Strafen von bis zu 50 Millionen Euro vor, wenn Internet-Firmen illegale Inhalte nicht schnell genug löschen.

Der Entwurf ist umstritten, unter anderem wegen einer Frist von sieben Tagen, die Online-Netzwerke zur Entscheidung in nicht eindeutigen Fällen bekommen sollen. Für heute ist eine Anhörung im Rechtsausschuss des Bundestages zu dem Gesetz angesetzt, bei der unter anderem Organisationen und Verbände ihre Argumente einbringen können. In vorab veröffentlichten Stellungnahmen wurde der Entwurf von "Reporter ohne Grenzen" als ungeeignet kritisiert und von der Staatsanwaltschaft Hamburg unterstützt.

sve/DPA

Stern Logo Das könnte Sie auch interessieren

Partner-Tools