VG-Wort Pixel

Facebook Hass-Makler Facebook: Der Fisch stinkt vom Kopf her

Facebook-Chef Mark Zuckerberg schaut bei seiner F8-Rede betreten
Der Hass bei Facebook scheint Mark Zuckerberg nicht besonders zu stören
© Justin Sullivan/Getty Images/AFP
Bei sozialen Medien können sich Rechte und andere Extremisten wunderbar miteinander verknüpfen. Nun kommt heraus: Facebook wusste, dass seine Algorithmen den Hass aktiv befeuern. Doch der Chef hatte andere Sorgen.

Hasserfüllte Kommentare, wütendes Bepöbeln von Menschen mit der falschen Meinung, der falschen politischen Einstellung - oder auch der falschen Hautfarbe: Wohl jedem, der sich schon mal auf sozialen Medien bewegt hat, ist dort auch Hass begegnet. Doch Facebook ließ die wutentbrannten Extremisten nicht nur gewähren. Der Konzern unterstützte sie auch bei ihren Vernetzungsbestrebungen. Der Hass ist gut fürs Geschäft.

Facebook kann nicht behaupten, das sei aus Versehen passiert. "Unser Algorithmus nutzt die menschliche Neigung zum Gespaltensein aus", erklärte eine interne Präsentation nach einem Bericht des "Wall Street Journals" bereits 2018. "Wenn wir das nicht ändern, bekommen unsere Nutzer eine zunehmende Anzahl umstrittener Inhalte präsentiert, um die Aufmerksamkeit der Nutzer zu bekommen und ihre Zeit auf der Seite zu maximieren."

Hass-Makler Facebook

Klar, auch vorher schon hatten Menschen mit extremen Meinungen nach Gleichgesinnten gesucht. Bei Facebook bekamen sie sie aber auf dem Silbertablet serviert. Während sie im klassischen Internet noch danach hätten suchen müssen - was viele dann vermutlich doch nicht getan hätten -, schlug Facebook sie ihnen direkt vor. Statt nur Nutzer auf ihre Interessen zu stoßen, organisierte Facebook regelrecht Hassgruppen.

Dass das zunächst wohl unwissentlich geschah, kann man dem Konzern sogar abnehmen. Der Algorithmus, der passende Freundes- und Gruppenvorschläge präsentiert, verbindet bei Facebook auch politisch Gleichgesinnte. Das ist schließlich seine Aufgabe. Doch als Entwickler entdeckten, dass das wohl etwas zu gut funktionierte, hätte Facebook handeln müssen.

Schon 2016 sei ein Drittel aller politischen deutschen Facebook-Gruppen extremistisch gewesen, entdeckte demnach eine interne Untersuchung. Und Facebook musste eine direkte Mitschuld eingestehen: "64 Prozent aller Beitritte in extremistische Gruppen werden durch unser Empfehlungs-Tool ausgelöst", so das interne Dokument. Die erstaunlich ehrliche Erkenntnis: "Unser Empfehlungs-System macht das Problem schlimmer."

Wut macht aktiv

Die Überbetonung besonders aktiver Nutzer hatte ebenfalls einen Lautsprecher-Effekt. Die allermeisten Posts und Themen seien von einigen wenigen, extrem motivierten Supernutzern verfasst worden, so die Erkenntnis. Mit ihren Unmengen an Posts hielten sie die Gruppen überhaupt am Leben - und gaben den anderen Nutzern das Gefühl, an einer großen Bewegung teilzuhaben. So wurde die Wut immer weiter geschürt.

Das ist durchaus im Interesse des Konzerns. Schaut man sich die Metriken an, mit denen Facebook den eigenen Erfolg anpreist, geht es da nicht um die Anzahl verhinderter Konflikte oder die Menge unterbundener Hass-Meldungen. Stattdessen geht es um die stetig steigende Nutzerzahl, die monatlichen Zugriffe und die Menge an Zeit, die Menschen bei dem sozialen Netzwerk verbringen. Und nichts sorgt für so ein starkes Engagement wie starke Emotionen. Auch, wenn es sich bei dieser Emotion um Hass handelt. 

Spätestens als die Führung von dem Versagen des Algorithmus erfuhr, machte sie sich zum Komplizen. Von seinen Entwicklern mit den Problemen und einigen Lösungsvorschlägen konfrontiert, entschied er sich laut internen Dokumenten und anonymen Zeugenberichten dafür, die Förderung des Hasses weiter laufen zu lassen oder nur minimal zu justieren, berichtet das "WSJ". Ideen, wie man das Anstacheln durch wenige Nutzer minimieren könnte, seien etwa durch Zuckerberg persönlich stark verwässert worden, so der Bericht. Und nicht nur das: Der Facebook-Chef soll das Team gebeten haben, ihn nicht noch einmal mit dem Thema zu belästigen. Er habe sich lieber um Facebooks Reichweiten-Wachstum gesorgt - und schlicht das Interesse verloren.

Links oder rechts?

Ein weiterer Grund für das Nichtstun scheint die externe Wahrnehmung gewesen sein. Viele Änderungen seien verhindert worden, weil Facebook ohnehin schon von den mächtigen Konservativen vorgeworfen wurde, die Linken zu unterstützen. Eigentlich neutrale Maßnahmen wie das Verbot von Clickbait-Zeilen hätten wegen des höheren Organisationsgrad der Rechten die konservativen Newsseiten härter getroffen - und sollte deshalb unbedingt verhindert werden. Politik-Chef Joel Kaplan soll entsprechende Vorschläge deshalb persönlich abgeschmettert haben.

Kaplan hatte schon vorher ein Projekt verhindert, dass die Debattenkultur mäßigen sollte. Seine offizielle Befürchtung: Facebook könnte den Eindruck verstärken, die Seite sei zugunsten der linken Medien voreingenommen. Kaplan selbst steht nicht im Verdacht, ein Linker zu sein. Er arbeitete schon für George W. Bush und gilt als Freund des umstrittenen Supreme-Court-Richters Brett Kavanaugh.

Der Konzern will von diesen ollen Kamellen nichts hören. Man sei eine andere Firma als damals, versicherte ein Sprecher dem "WSJ". "Wir haben seit 2016 eine Menge gelernt." Tatsächlich hat der Konzern begonnen, verstärkt gegen Hassposts vorzugehen. Eine echte Wahl hatte er nicht: Die Alternative wären empfindliche Strafzahlungen gewesen, die dann doch nicht mit dem höheren Engagement aufzurechnen gewesen wären.

Ganz loslassen will man die größere Aufmerksamkeit durch Hass wohl ohnehin nicht. Als die Webseite im letzten Jahr eine neue Nachrichtenfunktion vorstellte, war auch die bei den Neurechten beliebte Newsseite "Breitbart" darunter. Dort werden gerne rechte Verschwörungen gefeiert, einmal aus Versehen Lukas Podolski als nordafrikanischer Flüchtling dargestellt, der auf einem Jetski eingereist sei. Auf Nachfrage verteidigte Zuckerberg die Entscheidung für die skrupellose Hetzseite. Man wolle bei Facebook eben "verschiedene Ansichten" darstellen. Ein Schelm, wer Böses dabei denkt.

Quellen: Wall Street Journal, Twitter


Mehr zum Thema


Wissenscommunity


Newsticker