Die dunkle Seite von sogenannten sozialen Netzwerken ist hinlänglich bekannt: Plattformen fungieren als Brutstätten für Hass und Hetze, bieten rechtsextremen Ideologien und menschenverachtenden Memes eine digitale Bühne. Dafür tragen auch Tech-Unternehmen eine Mitverantwortung: User:innen werden durch vorgeschlagenen Content und empfohlene Gruppen weiter radikalisiert, die genaue Rolle von Algorithmen bleibt undurchsichtig und Unternehmen machen Milliarden-Gewinne. Mit einer neuen Initiative will Facebook Hass auf seiner Plattform bekämpfen: „Courage Against Hate“, also „Mut gegen Hass“ heißt der Austausch mit Forscher:innen und zivilgesellschaftlichen Organisationen, der mit einem knapp 130-seitigen Bericht am 13. Juli 2021 lanciert wurde.
„Hass und Extremismus haben keinen Platz auf Facebook“, schreibt der Tech-Riese in der Einleitung zum „Courage Against Hate“-Bericht. Das Unternehmen habe daher viel in Maßnahmen investiert, um problematischen Content zu entfernen, bevor er gesehen wird, heißt es. Konkret bedeutet das eine Verdreifachung der Mitarbeiter:innen, die für Sicherheit auf der Plattform zuständig sind: 35.000 Personen arbeiten nun in diesem Bereich. Weitere 350 Mitarbeiter:innen sollen Terrorismus und Extremismus auf Facebook bekämpfen – darunter Wissenschaftler:innen und Ingenieur:innen, ehemalige Staatsanwält:innen und andere Ex-Mitarbeiter:innen der Sicherheitsbehörden.
Vor vier Jahren begann Facebook, sich mit anderen Tech-Unternehmen im Rahmen der „Global Internet Forum to Counter Terrorism“ zu vernetzen, um Terrorismus auf der Plattform bekämpfen. Seitdem habe Facebook mit unterschiedlichen Expert:innen aus der Politik, Zivilgesellschaft und Wissenschaft zusammengearbeitet, um Rechtsextremismus und Rechtsterrorismus online zu bekämpfen, heißt es. Der Konzern habe zudem neue Technologien entwickelt, um „extremistische“ Inhalte automatisch zu identifizieren. Die Bilanz: 2020 entfernte das Unternehmen 19 Millionen Beiträge, die einen Bezug zu „Hassorganisationen“ hatten – 97 Prozent der Beiträge seien proaktiv erkannt und gelöscht worden, bevor User:innen sie melden konnten.
Doch wer sich in den einschlägigen Facebook-Gruppen umschaut, findet schnell menschenverachtenden Content aus dem rechtsextremen Spektrum – ob Hitler-Memes, Holocaustleugnung oder rassistische Hetze. Szenegrößen der extremen Rechten sind weiterhin auf Facebook aktiv, von Tommy Frenck bis Thorsten Heise. Rechtsrock-Festivals und rechtsextreme Kampfsportveranstaltungen können ungestört auf der Plattform werben. Und Facebook schlägt daraus Profit.
Der Tech-Riese weiß um das Problem: „Daher brauchen wir Partnerschaften, um diese Arbeit gut zu machen“, schreibt das Unternehmen im Bericht. Auf die Frage, warum bekannte Neonazis weiterhin auf der Plattform aktiv sind, antwortete auf der Launch-Veranstaltung für den Bericht eine Facebook-Sprecherin: Operation-Teams betrieben ständig Monitoring auf der Plattform, doch einige rechtsextreme Akteur:innen seien „Grenzfälle“ und erfüllten die Kriterien nicht, entfernt zu werden. Diese Kriterien seien unabhängig von politischer Ideologie festgesetzt worden und gelten für alle Facebook-Nutzer:innen. Manche Rechtsextreme seien auf der Plattform zudem bewusst vorsichtig und umgingen die Maßnahmen gezielt, so die Sprecherin. „Es ist nicht perfekt“, räumt sie in Bezug auf das Moderations-System ein.
Während neue Technologien und Ansätze von Facebook entwickelt werden, um Hass auf der Plattform zu entfernen, bietet der Bericht „Courage Against Hate“ schon jetzt eine hilfreiche und tiefgründige Analyse von Rechtsextremismus im digitalen Raum. Der Bericht beginnt mit einer Analyse der britischen Organisation „Hope not Hate“ über die Rhetorik, Richtung und Strategie der extremen Rechten angesichts der Covid-Pandemie und der „Black Lives Matter“-Bewegung. Matthias Quent, Christoph Richter und Axel Salheiser vom „Institut für Demokratie und Zivilgesellschaft“ (IDZ) in Jena zeigen in ihrem Beitrag, wie die extreme Rechte sich an Subkulturen anpasst und im digitalen Raum modernisiert hat. Und Bethan Johnson vom britischen Forschungszentrum „Centre for the Analysis of the Radical Right“ nimmt James Masons „Siege“, einen Schlüsseltext der globalen Neonazi-Szene, unter die Lupe – und zeigt, welche Bedeutung „Siege Culture“ für „White Supremacists“ hat.
Im zweiten Teil des Berichts werden Fallstudien vorgestellt – mit Texten von der schwedischen Organisation „#iamhere“, dem britischen Projekt „Galop“ sowie „Moonshot“. Besonders interessant dabei ist der Beitrag von „Textgain“ und dem „Media Diversity Institute“, deren Projekte „Detect Then Act“ mit künstlicher Intelligenz bzw. „Get The Trolls Out“ mit fortlaufendem Medienmonitoring Diskriminierung und Hass im Netz beobachten.
Der Bericht ist zunächst nur in englischer Sprache erhältlich, eine deutsche Übersetzung soll allerdings bald folgen. Den ganzen Bericht können Sie hier lesen.