Propaganda im Netz stern-Expertin erklärt: So gefährlich sind Trolle, Bots und Fake-Accounts im Ukraine-Krieg

Von Verena Steinkamp
Tina Kaiser ist Autorin im Berliner Hauptstadtbüro und recherchiert seit Jahren zu Verschwörungsideologien und politischer Propaganda im Netz.
Tina Kaiser ist Autorin im Berliner Hauptstadtbüro und recherchiert seit Jahren zu Verschwörungsideologien und politischer Propaganda im Netz.
© Gisela Gürtler
Der Ukraine-Krieg ist auch eine Schlacht um Wahrheit und Lüge. Der Informationskrieg spielt sich im Netz ab, mit Troll-Armeen und Bots. Welche Gefahr von ihnen ausgeht, erklärt stern-Autorin Tina Kaiser. 

Der Ukraine-Krieg ist nicht nur ein Krieg mit Waffen, er wird auch als Informationskrieg geführt. Welche Rolle spielen dabei russische Troll-Armeen und Putinbots? Wie gefährlich sind sie für westliche Demokratien? Und wie kann sich jede:r einzelne Social-Media-Nutzer:in vor ihnen schützen? stern-Autorin Tina Kaiser klärt auf.

Sie haben in den vergangenen Jahren immer wieder zu politischer Desinformation recherchiert. Welche Rolle spielen dabei Bots und was ist das überhaupt?

Ein Bot ist ein automatisierter Account auf Twitter, Facebook oder anderen sozialen Medien. Es gibt seriöse Bots, die auch klar als solche gekennzeichnet sind und beispielsweise Wetter- oder Börseninformationen verbreiten. Ein lustiges Beispiel für einen Bot ist übrigens der Twitter-Account @ROB0TIUS, dessen Algorithmus Reportage-Ideen im Stil des Hochstaplers Claas Relotius ausspuckt.

Gefährlich sind dagegen solche Bots, die sich als menschliche Nutzer ausgeben und einen politischen Zweck verfolgen. Sie schreiben Kommentare, verschicken Freundschaftsanfragen und retweeten Nachrichten von anderen – verhalten sich also wie echte Menschen. Oft geht es dabei darum, polarisierende Meinungen oder falsche Informationen in sozialen Netzwerken zu verbreiten. Es gibt von solchen Bots mehr, als man denkt: Eine Studie der Carnegie Mellon Universität hat im ersten Pandemiejahr 200 Millionen Tweets zum Thema Corona analysiert: 82 Prozent waren von Bots verfasst.

Und wie unterscheiden sich Bots von Troll-Accounts?

Hinter Troll-Accounts stecken im Gegensatz zu Bots echte Menschen. Sie werden dafür bezahlt, politische Botschaften zu verbreiten und Unruhe zu stiften. Dafür benutzen sie in der Regel falsche Namen, manche geben sich als real existierende Personen aus, andere haben komplette ausgedachte Identitäten. Es gibt auch Trolle, die nicht dafür bezahlt werden, sondern aus Spaß oder Überzeugung trollen.

Welche Rolle spielen russische Bots und Troll-Armeen im Angriffskrieg gegen die Ukraine?

Eine sehr große. Ohne Propaganda und Desinformation wäre der Krieg gegen die Ukraine gar nicht möglich. Wladimir Putin und sein Geheimdienst haben die russische Bevölkerung über Jahre auf diesen Krieg vorbereitet. Spätestens seit der Annektierung der Krim 2014 haben sie damit begonnen, ein Narrativ zu verbreiten: von der bösen Nazi-Elite, die das ukrainische Volk unterdrückt, das befreit werden will. Das innenpolitische Ziel der Desinformation ist, das russische Volk auf Linie zu bringen. Das außenpolitische Ziel lautet, westliche Demokratien zu destabilisieren. Mit Schmutzkampagnen versuchen die Putin-Trolle, das Vertrauen der Menschen im Westen in ihre Regierungen, Parlamente, Gerichte, in die Wissenschaft und die Medien zu zerstören. Eigentlich ist das gar nichts neues: Auch im Kalten Krieg haben die Geheimdienste der Sowjetunion und der DDR falsche Informationen gestreut, um den Westen zu spalten. Russland hat frühzeitig erkannt, wie schnell sich Lügen über soziale Medien verbreiten – und wie leicht sich Querdenker, Extremisten oder auch einfach unbedarfte Internetnutzer zu nützlichen Idioten des Kremls machen lassen und die Fake News teilen.

Wer steckt hinter den Troll-Accounts?

Russland betreibt sogenannte Troll-Fabriken, in denen Menschen nichts anderes tun, als sich Desinformationskampagnen auszudenken und sie in Dutzenden Sprachen zu verbreiten. Die bekannteste ist die Internet Research Agency (IRA) in St. Petersburg. Es gibt mehrere Aussteiger der IRA, die berichtet haben, wie dort im Schichtwechsel Hunderte von Menschen an Computern sitzen und versuchen, Wahlen westlicher Staaten zu manipulieren oder dort Fremdenhass zu schüren. Der US-Sonderermittler Robert Mueller hat beispielsweise aufgedeckt, wie IRA-Trolle Facebook-Anzeigen in den USA geschaltet haben, damit Hillary Clinton bei der Präsidentschaftswahl gegen Donald Trump verliert. Teilweise wird das Trollen aber offenbar auch outgesourced: Angebliche Marketingagenturen zahlen Tiktok- oder Youtube-Influencer Geld, damit sie Desinformation streuen. Im Mai 2021 wurde beispielsweise der Fall des Youtubers Mirko Drotschmann bekannt, dem eine Marketingagentur mit Verbindungen nach Russland Geld anbot. Dafür sollte er mit seinem Account MrWissen2Go angeblich geleakte Dokumente zu Todesfällen bei Corona-Impfungen teilen. Oder ein aktuelles Beispiel: "Vice" hat kürzlich über Tiktok-Influencer berichtet, die für Kreml-freundliche Kriegspropaganda bezahlt werden sollen. Tiktok ist übrigens im Ukraine-Krieg zu einem der wichtigsten Propagandamittel geworden.

Es scheint einen Zusammenhang zwischen Accounts von Querdenkern, Rechtsextremen und Putin-Fans zu geben. Ist das richtig?

Ja, absolut, das ist auch keine Überraschung. Denn eben diese Gruppen werden seit Jahren gezielt von russischen Trollen gefüttert und halten "Russia Today" für eine seriöse Nachrichtenquelle. Bei deutschen Nazis gilt darüber hinaus traditionell das Weltbild vom bösen, imperialistischen Ami und dem heimatverbundenen, wertebewussten Russen. Galionsfiguren in der Verschwörungs- und Coronaleugnerszene verbreiten jetzt auch bereitwillig Russland-freundliche Fake News. Bodo Schiffmann zum Beispiel, der Arzt ist einer der schrillsten Stimmen der Querdenker-Szene. Der schrieb neulich auf Telegram: "Erst zwei Jahre Gehorsam für eine Grippe, jetzt auf Kommando Hass gegen Russen." Klar, wer überzeugt davon ist, bei der Pandemie von westlichen Medien angelogen zu werden, der glaubt auch nicht, was eben diese Medien über Putin berichten. Zumal die Trolle darauf achten, dass ihre Fake News ins Weltbild dieser Gruppen passen: In den vergangenen Wochen gingen immer wieder fremdenfeindliche Berichte viral, zum Beispiel über ukrainische Flüchtlinge, die in Deutschland angeblich einen Zug verwüstet oder sogar jemanden umgebracht haben sollen – beides frei erfunden.

Was tun gegen Hass im Netz? Darum geht es in der neuen DISKUTHEK-Folge
Was tun gegen Hass im Netz? Darum geht es in der neuen DISKUTHEK-Folge mit Youtuber Open Mind, Politikerin Wiebke Winter und Künast-Anwalt Severin Riemenschneider
© stern
Hass im Internet: Youtuber trifft Politikerin und Künast-Anwalt

Wie kann ich Fake Accounts erkennen und was kann jede:r einzelne im Umgang mit Trollen beachten?

Grundsätzlich gilt: In den Sozialen Medien ist jeder Multiplikator und hat daher eine besondere Verantwortung. Teilen Sie deswegen nur Informationen, Bilder und Videos, wenn Sie ganz genau wissen, woher sie stammen und ob die Quellen seriös sind.

Fake-Accounts zweifelsfrei zu erkennen, ist nicht immer ganz leicht. Diese Checkliste sollte dir aber zumindest helfen:

  1. Postet ein Account zu allen Tages- und Nachtzeiten Beiträge, teilt er vielleicht auch innerhalb von sehr kurzer Zeit sehr viele Posts? Dann ist er wahrscheinlich ein Bot.
  2. Was sagt das Botometer? Der Dienst analysiert die Wahrscheinlichkeit, ob es sich um einen Twitter-Bot handelt.
  3. Welche persönlichen Informationen finden Sie über den Besitzer des Accounts? Benutzt er ein Pseudonym, hat er ein Symbolbild und nur wenige Profilinformationen, ist auch das ein Warnzeichen.
  4. Auch wenn die Fotos eine echte Person zeigen, kann der Account gefälscht sein. Überprüfen Sie mit der Rückwärtsbildersuche oder mit TinyEye: Wurde das Profilbild schon in anderen Zusammenhängen genutzt?
  5. Ist der Account noch relativ neu? Folgen ihm keine Leute, die Sie kennen? Wenn Sie beides mit "Ja" beantworten müssen, dann besser Finger weg.
  6. Teilt der Account ausschließlich Inhalte, die eine politische Strömung erkennen lassen? Also geht es beispielsweise nur um regierungskritische Inhalte, aber nie ums Wetter, den verspäteten ICE oder die Fußball-Ergebnisse vom Wochenende? Auch ein schlechtes Zeichen.
  7. Wie viel Zeit verbringt der Account täglich damit, zu posten? Beispiel: Schreibt er an fünf Tagen die Woche rund acht Stunden am Tag Beiträge, dann spricht einiges dafür, dass er dafür bezahlt wird.
  8. Befindet sich der Nutzer dort, wo er vorgibt zu sein? Analysetools wie Followerwonk können Ihnen helfen, das herauszufinden.

Sie können Tina Kaiser auch auf Twitter (@kaiserinberlin) oder Instagram (@kaiserinvonwelt) folgen. Das sind Real-Accounts. Versprochen!

rw

PRODUKTE & TIPPS