Weiter zum Inhalt Skip to table of contents

Online-Krieg Organisierter Hass ringt um die Meinungshoheit

Von|
Titelbild der Studie "Hass auf Knopfdruck - Rechtsextreme Trollfabriken und das Ökosystem koordinierter Hasskampagnen im Netz". (Quelle: ISD)

 

 

Debatten in Sozialen Netzwerken bilden nicht die Realität der Meinungsverteilung in Deutschland ab. Aber wir müssen daran arbeiten, dass das auch so bleibt. Das sagen Organisationen wie die Amadeu Antonio Stiftung, die zu Hate Speech arbeiten, schon seit Jahren.  Aber stimmt dieses Erfahrungswissen? Und ist in Deutschland wirklich vor allem abwertende Hate Speech ein Rechtsaußen-Problem? Diese Fragen versucht nun die Studie „Hass auf Knopfdruck“ der Initiative #ichbinhier und des „Institutes for Strategic Dialogue“ durch Analyse von 1,6 Millionen Beiträgen auf Facebook zwischen Februar 2017 und Februar 2018 zu klären. Ihr Ziel ist es, bessere Voraussetzungen für gute Gegenstrategien zu schaffen. Kenntnisse über Strategien von Hass-Organisationen sind eine gute Grundlage.

 

Wer verbreitet Hass im Netz?

Hasserfüllte Rede, so nennt die Studie das Phänomen, dass sie untersucht, kommt in den 1,6 Millionen analysierten Beiträgen des deutschsprachigen Facebooks übrigens in der Tat vor allem von rechten Accounts. Der Anteil linksextremer hasserfüllter Rede ist verschwindend gering – und bei den Islamist*innen ist Facebook schon wieder aus der Mode gekommen, weil das Netzwerk schon länger konsequent gegen IS-sympathisierende Accounts vorgeht. Hier geht der Trend zu geschlossenen Plattformen wie Telegram oder Discord, die Rechtsextreme ja ebenfalls zur Organisation nutzen. Nur finden die Trollaccounts der rechten Sphäre Facebook immer noch interessant: Als ein Mittel, um ihre Ideologie – und zwar konkret besonders Rassismus, Elitenschelte, Islamfeindlichkeit – in die gesellschaftliche Mitte einsickern zu lassen. Lieblingsthemen:  Kriminalität von Geflüchteten und Migrant*innen, terroristische Anschläge, Artikel mit Bezug auf Flucht und Asyl oder zu Muslimen in Deutschland, oder Fragen von Identität, Freiheit und Tradition.

Der meiste Hass in den Facebook-Kommentaren großer Medien kommt von einer relativ kleinen, aber gut organisierten Troll-Armee. So verteilten gerade einmal 0,02 % der analysierten Facebook-Accounts etwa 50 % der Likes bei hasserfüllten Inhalten.

Diese koordinierten Accounts von Sympathisant*innen rechtsextremer und rechtspopulistischer Organisationen bestimmen den Diskurs bewusst und gezielt. Ihre Aktionen sind also kein Abbild der Gesellschaft, sondern gezielte Manipulationsversuche, um Politik, Medien und aktive Demokrat*innen zu täuschen, unter Druck zu setzen und einzuschüchtern.

Besonders aktiv sind in den Kommentarspalten und auf Twitter  Sympathisant*innen der „Identitären Bewegung“, die in Kampagnen wie #KikaGate auf bis zu 400 Accounts zurückgreifen können. Aber auch AfD-Sympathisant*innen verteilen so viele Likes für hasserfüllte Inhalte wie wie die Sympathisant*innen aller demokratischen Parteien zusammen, wie die Studie zeigt.

 

Wie manipuliert die rechte Sphäre die Meinungsbildung?

Hierfür gibt es verschiedene Taktiken.

Grundmuster: Hass-Inhalte werden erstellt, von aktiven Accounts verteilt und multipliziert und von „alternativen“ rechten Medien verstärkt und verbreitet. Sympathisant*innen liken die Posts gegenseitig hoch, damit sie mehr Aufmerksamkeit und Glaubwürdigkeit bekommen. Gängige Medien greifen die Themen auf und wiederholen die Hass-Narrative. Schlimmstenfalls hat das Einfluss auf politische Entscheidungsprozesse.

Organisiert werden gemeinsame koordinierte Aktionen etwa über geschlossene Kanäle im Netzwerk Telegram oder über die Gaming-Plattform „Discord“. Gruppen wie „#Infokrieg“ oder „Reconquista Germanica“ nutzen dabei gern militärische Metaphorik.

Deshalb gehören zu den Taktiken zum Verbreiten:

„Armeen“ von Fake Accounts / Sockenpuppen – ein User wird viele anonyme User, am besten auch außerhalb der rechten „Filterblase“

Koordiniertes Kapern von Hashtags

Fluten von Kommentarspalten reichweitenstarker Medien

„Sniper-Missionen“: Sollen verbale Überreaktionen provozieren

„Clear and Hold“-Missionen – gegnerische Hashtags mit eigenen Inhalten zu infiltrieren und User, die diese Hashtags verwenden, aus der Timeline gedrängt

„Search and destroy“ – vereinbarter Post wird mit Memes und Kommentaren „zugespammt“

„Raids“ – zu verabredeten Uhrzeiten werden mit Hashtags demokratische Politiker*innen, demokratische Aktivist*innen oder große Medien angegriffen – indem etwa ihre Videos mit Kommentaren zugespammt werden oder viele Dislikes verteilen werden, um die Reichweite von Videos zu vermindern.

 

Ist das erfolgreich?

Belegbar ist etwa, dass vor der Bundestagswahl 2017 rechte Kampagnen dazu geführt haben, dass in den drei Wochen vor der Wahl sieben rechtsextreme Hashtags wie #TraudichDeutschland, #nichtmeinekanzlerin, #Merkelmussweg oder #reconquista in den Top 30 -Twitter-Trends platziert, die dann auch über die Szene hinaus Verbreitung fanden. Auch hohe AfD-Funktionär*innen verwendeten sie, russische „alternative“ Medien wie „Russia Today“ oder „Sputnik“ verbreiten sie. Inspiration war die amerikanische „Alt-Right“-Bewegung, die so Trump mit zum Sieg verholfen haben will.

Offenkundig wird in der Untersuchung, dass nur wenige Accounts nötig sind, um das Bild in Kommentarspalten zu bestimmen oder auch zu ändern. Das heißt: Es ist zumindest leicht möglich, dass Akteur*innen – nichtstaatliche oder staatliche – Fake Accounts erstellen und eine öffentliche Debatte in Kommentarspalten dominieren oder gar kontrollieren. Beweisbar ist das bisher nicht.

 

Warum das Ganze?

Ziel ist es, mit Hass-Kampagnen in Kommentarspalten den Eindruck zu erwecken, die rechte Hetze stelle ein verbreitetes Meinungsbild dar, das also die Debatte eine gesellschaftliche Stimmung abbilde. Dies geschieht nicht nur durch zahlreiche ähnlich lautende Kommentare, sondern auch dadurch, dass größere Gruppen von Accounts sich gegenseitig durch Likes in die Aufmerksamkeit pushen. Schlimmstenfalls verstummen demokratische Gegenstimmen und Minderheiten, weil sie beleidigt, zermürbt und aus Kommentarspalten vertrieben werden. Wenn Medien und Politik diese manipulierte Sicht auf ein Thema als gesellschaftlichen Konsens aufnehmen, kann das Meinungsbild tatsächlich verschoben werden. Dies beschädigt sofort den pluralistischen Diskurs im Netz – und langfristig vielleicht gar die politische Kultur in Deutschland.

 

Was bewirkt das NetzDG?

Seit Januar 2018 hat Deutschland das „Netzwerkdurchsetzungsgesetz“, durch das Social-Media-Unternehmen verpflichtet werden, strafrechtlich relevante Hassrede innerhalb von 24 Stunden zu entfernen.  Das Gesetz, finden die Autor*innen der Studie, habe schon Effekte, die Gesamtanzahl offensichtlich rassistischer, antimuslimischer und antisemitischer Posts sei zurückgegangen. Auf organisierte und koordinierte Hass-Kampagnen wie #KikaGate oder #kandelistüberall hatte das allerdings keine Effekte – die arbeiten von Feb. 2017 bis Okt 2017 mit 90.000 Posts, von Nov. 2017 bis Feb. 2018 allerdings gar mit 300.000 Post, was  eine Verdreifachung der Beiträge dieser Art darstellt. Es gibt also weniger Hasspostings – aber strategisch erfolgreichere und gefährlichere.

„Mediennutzer und Seitenbetreiber sind hier gefragt“, fordert Hannes Ley, Gründer der Aktionsgruppe #ichbinhier und erster Vorsitzender des Vereins ichbinhier e.V. „Es macht einen großen Unterschied, ob die Seitenbetreiber gängiger Medien durch Moderation präsent sind und auf Kommentare von Nutzern antworten.” Auch die Rolle der Nutzer*innen Sozialer Medien wird in der Studie hervorgehoben um Hassrede etwas entgegenzusetzen: Jede*r von ihnen kann Betroffenen von Shitstorms beistehen und sich für einen respektvollen Umgang in den Kommentarspalten einsetzen, unabhängig von der eigenen politischen Meinung.

Julia Ebner, Analystin des ISD und Mit-Autorin, mahnt: „Es ist wichtig, dass weder Journalisten noch Politiker die öffentliche Wahrnehmung basierend auf Meinungen und Interaktionen in den Sozialen Netzwerken deuten. Unsere Analysen verdeutlichen, dass nur wenige, in vielen Fällen rechtsextreme, Individuen mittels der Sozialen Netzwerke den Eindruck einer scheinbaren Mehrheitsmeinung generieren, die so gar nicht von der Bevölkerungsmehrheit getragen wird. Diese Wahrnehmungsverzerrung kann einen gravierenden Einfluss auf unsere demokratischen Prozesse haben. Basierend auf unseren Ergebnissen fordern wir daher eine überparteiliche Antwort, um Aktivisten, NGOs, Journalisten und andere Internetnutzer vor digitalen Angriffen zu schützen.“

 

Die Studie:

Philip Kreißel, Julia Ebner, Alexander Urban und Jakob Guhl: Hass auf Knopfdruck

Rechtsextreme Trollfabriken und das Ökosystem koordinierter Hasskampagnen im Netz

Juli 2018

PDF zum Download:  

http://www.isdglobal.org/wp-content/uploads/2018/07/ISD_Ich_Bin_Hier_2.pdf

Weiterlesen

markus-spiske-2VMcpbUR6w8-unsplash

Kommentar Liebe Volkswirte, wir müssen reden!

Wieviel Mitschuld am gesellschaftlichen und politischen Rechtsruck trägt eigentlich die Volkswirtschaftslehre? Und was muss die Wissenschaft jetzt tun? Ein Gastkommentar.

Von|
13033 monitoring november 2017

Monitoring November 2017 Zeitleiste der Hassrede

Welche Themen haben die Nutzer_innen rechter Räume auf Facebook erzürnt? Welche Kampagnen wurden versucht? Jetzt neu: Der Monitoring-Überblick unseres Partnerprojektes „Debate // De: Hate“. Achtung: Enthält explizite abwertende Sprache und Bilder aus Dokumentationszwecken.

Von|
Eine Plattform der