Zur mobilen Ansicht
Wechseln Sie für eine bessere Darstellung
auf die mobile Ansicht
Weiterlesen Mobile Ansicht
Startseite

Wie ich versuchte, einen Hasskommentar löschen zu lassen

Mit der steigenden Zahl der Flüchtlinge wächst auch die fremdenfeindliche Hetze auf Facebook. Was passiert, wenn man Hasskommentare meldet? Löscht Facebook sie? Unsere Autorin hat den Versuch gemacht.

Von Wiebke Wetschera

  Das soziale Netzwerk Facebook hat in Deutschland mittlerweile 27 Millionen Nutzer

Das soziale Netzwerk Facebook hat in Deutschland mittlerweile 27 Millionen Nutzer

Einer von ungezählten Kommentaren auf Facebook: "Diese dreckigen Syrer sind sowieso alle Feiglinge, die ihre Frauen und Kinder im eigenen Land zurücklassen." Fällt das noch unter Meinungsfreiheit oder ist das schon Rassismus? Was sagen die sogenannten Gemeinschaftsstandards von Facebook? Ich mache den Test.


Zunächst muss ich den Kommentar verbergen, dann ist er zumindest für mich nicht mehr sichtbar. Dann kann ich ihn melden. Im Anschluss fragt Facebook mich, ob der Kommentar sich um mich oder eine/n Freund/in dreht. Ich verneine. Die Frage "Warum möchtest du ihn dann nicht sehen?" beantworte ich mit dem Offensichtlichen: Dieser Kommentar ist eine rassistische Hassbotschaft. Dann sende ich den Vorgang zur Überprüfung an Facebook. Jetzt heißt es warten.

Facebook unterliegt E-Commerce-Richtlinie

27 Millionen Nutzer hat Facebook in Deutschland. Größtenteils sind die Nutzer laut Facebook friedlich. "Eine sehr kleine Minderheit hat jedoch Inhalte verbreitet, die offensichtlich die Linie akzeptabler Meinungsäußerung überschreiten und wir erkennen die damit verbundenen Bedenken an." Bereits seit 2010 arbeitet Facebook in Deutschland mit der Initiative "Netz gegen Nazis" zusammen. Die Chefredakteurin des Portals, Simone Rafael, hält Hasskommentare für ein schwerwiegendes Problem, gegen das sich Zivilgesellschaft, Polizei und Justiz wehren müssen. 

Aber auch Unternehmen wie Facebook müssen Verantwortung übernehmen. Weit mehr als bisher. Facebook unterliegt der europäischen E-Commerce-Richtlinie. Sie besagt, dass das Unternehmen verpflichtet ist, rechtswidrige Inhalte zu löschen - wenn es davon Kenntnis erlangt. Dann, und nur dann, haftet es für das, was auf seiner Plattform veröffentlicht wird. Von sich aus muss Facebook nichts tun. Es ist nicht verpflichtet, das eigene Netzwerk permanent auf rechtswidrige Inhalte zu prüfen.

Das Community-Operations-Team

Stößt ein Nutzer - so wie ich - auf einen Hasskommentar, kann er diesen dem sogenannten "Facebook Community-Operations-Team" melden. Wer oder was das ist, beschreibt das Unternehmen in einer offiziellen Mitteilung so: "Dieses Team von speziell ausgebildeten Experten stellt weltweit sicher, dass alle Berichte von unseren Nutzern rund um die Uhr an sieben Tagen pro Woche bearbeitet werden." Mehrere hundert Mitarbeiter sollen es angeblich sein. Auf meine konkrete Nachfrage, wie viele davon für Deutschland zuständig sind, gab Facebook keine Antwort.

Fakt ist: Es stehen so viele Hasskommentare auf Facebook, dass das Team offenkundig überfordert ist. Simone Rafael vom "Netz gegen Nazis" glaubt, dass die Mitarbeiter des Community-Teams zu schlecht ausgebildet seien. Deswegen komme es zu krassen Fehleinschätzungen. So würden teilweise Seiten gesperrt, die gegen Rechtsextremismus vorgehen - während rechtsextreme Seiten unbehelligt blieben. 

Zwischen globalen Standards und lokalen Gesetzen

Aus einer Mitteilung von Facebook geht hervor, dass die Reporting-Systeme dafür entwickelt seien, Menschen vor Missbrauch, Hassrede und Mobbing zu schützen. Allerdings kollidieren die Gemeinschaftsstandards zum Teil mit den rechtlichen Vorgaben eines jeweiligen Landes. Ein Beispiel: die Holocaust-Leugnung. In Deutschland eine Straftat, in Amerika fällt die Leugnung unter die Meinungsfreiheit. Posts, die nahe legen, dass Holocaust nie stattgefunden hat, werden deswegen nicht gelöscht - sondern IP-basiert gesperrt. In Deutschland sind sie dann nicht mehr zu sehen, in Amerika schon.

"Netz gegen Nazis" verlangt, dass Facebook mehr löschen solle. Selbst bei strafrechtlich relevanten Posts passiere dies zu selten, weil sich Facebook mit der Aussage herausrede, sie entsprächen den Gemeinschaftsstandards. Die Standards verbieten zwar die Hassrede in Bezug auf Religion, Hautfarbe und sexuelle Orientierung. Aber was genau noch tolerierbar ist und was nicht, hat Facebook nicht definiert. Offenkundig rutschen Tonnen braunen Schlamms ungehindert durch.

Nach der scharfen Kritik, die auch Bundesjustizminister Heiko Maas (SPD) an Facebook geäußert hat, will Facebook nun umsteuern. Der Begriff Hassrede soll mit Nichtregierungsorganisationen und Initiativen diskutiert werden. Außerdem will sich Facebook nun der Freiwilligen Selbstkontrolle Multimedia anschließen und das Prinzip "Counter Speech" etablieren - also verstärkt gegen rassistische Kommentare argumentieren. Allein: Reicht das?

Apropos Kommentar

Dreieinhalb Stunden, nachdem ich den Hasskommentar bei Facebook gemeldet hatte, kommt eine Nachricht. Der Verfasser des Kommentars habe seinen Kommentar gelöscht, bevor die Mitarbeiter die Aussage hätten überprüfen können. Ich habe noch drei weitere Kommentare gemeldet – alle von der gleichen, menschenverachtenden Art. Auf einen weiteren die gleiche Antwort. Bei zwei anderen gibt es auch einen Tag später noch keine Reaktion.
 

täglich & kostenlos
Täglich & kostenlos

Stern Logo Das könnte Sie auch interessieren

Partner-Tools