Wer rechtsextremes Gedankengut verbreiten will, hat es in den mit Gaming befassten Sphären des Internets vergleichsweise leicht. Wie in dieser Broschüre schon angeführt, ist die Plattform Steam ein Negativbeispiel dafür, wie sich extrem rechte Akteure nahezu widerstandslos in Gaming-Communitys etablieren können. Wenn Moderationsteams nicht ausreichend sensibilisiert und trainiert werden – was bei den meist unbezahlten Unterstützer:innen aus der Community nicht zu erwarten ist – oder gar selbst dem rechten Rand angehören, füllen sich die Foren und Review-Bereiche bestimmter Spiele oft schnell mit rechten Spieler:innen.
Auch andere Foren, Social Media-Dienste und die Kommentarbereiche der Spielepresse leiden unter ähnlichen Problemen. Die GameStar, Deutschlands auflagenstärkstes Gaming-Magazin, fiel in der Vergangenheit mit wenig moderierten Kommentarbereichen unter ihren Artikeln und You-Tube-Videos auf. Teilweise blieben hier antifeministische, rassistische oder
LGBTQIA+-feindliche Kommentare wochenlang unberührt. Mehr und mehr nimmt sich das Magazin aber dieser Problematik an und versucht der Verantwortung gerecht zu werden.
Community-Management wird noch zu selten als wichtiges Beschäftigungsfeld und Teil einer gesellschaftlichen Verantwortung anerkannt, für das bezahltes Personal notwendig ist. Oft füllen die Rolle der Content-Moderator:innen Auszubildende, Praktikant:innen, Junior-Redakteur:innen oder gar die Community selbst aus. Diese stiefmütterliche Moderation führt dazu,
dass rechte Codes und szenebekannte Narrative (sogenannte „Dog Whistles“) nicht erkannt werden. An anderer Stelle bleibt eindeutige, jedoch nicht strafrechtlich relevante Hassrede unberührt, obwohl sie Menschengruppen abwertet. Diesen Missstand hat auch die extreme Rechte längst erkannt. Verfassungsfeindliche oder und andere strafbare Aussagen machen längst nicht
mehr den Großteil rechtsextremer Rekrutierungs- oder Abschreckungsstrategien im Netz aus. Stattdessen werden vor allem zwei sprachliche Kniffe genutzt, um User:innen online auf die Seite rechter Vorhaben zu bewegen.
Dog Whistling – nur für Eingeweihte
Eine bekannte Medienstrategie der „Neuen Rechten“ wird auch in Gaming-Kontexten angewandt: Diskriminierende und antidemokratische Inhalte werden mit Hilfe von vagen Andeutungen verbreitet. Durch Codierung werden Gewaltaufrufe, Bezüge zum Nationalsozialismus oder Feindbildproduktionen nicht explizit formuliert, bleiben jedoch für Eingeweihte deutlich erkennbar. Diese „Dog Whistles“ („Hundepfeifen“, nach den Tönen einer Frequenz, die für Hunde, aber nicht für Menschen hörbar ist) entwickeln sich ständig weiter, bekommen Nuancen hinzu oder werden durch neue ersetzt. Es bleibt für demokratische Akteur:innen eine Herausforderung, die sich ständig wandelnden Narrative zu erkennen und zu decodieren. Allgemein bekannte Neonazi–Symbolik – wie 18 für die Initialen von Adolf Hitler – werden schnell aus der Außendarstellung organisierter rechter Organisationen verbannt. Häufig bleiben sie aber gruppenintern, beispielsweise bei Wehrmachts-Fangruppen auf Steam, in Benutzung.
Rassistische Memes machen die Runde
Mechanismen für ihre Zwecke. Das islamfeindliche Meme „Deus Vult“ entstand ursprünglich im Kontext rechter Foren wie 4chan und lässt sich mittlerweile auch regelmäßig auf weniger eindeutig faschistoiden Plattformen wie 9GAG58 wiederfinden. Die notorische Bekanntheit des Memes und seine rassistische Verknüpfung bewog die „Crusader Kings“-Entwicklungsfirma Paradox Interactive sogar, über ein komplettes Streichen des lateinischen Ausrufs aus dem dritten Teil ihres Spiels nachzudenken.
Rechte Neologismen zur ideologischen Verständigung
Während rechtsextreme Memes durch ihre Verknüpfung von Begriffen und bestimmten Bildern meist eindeutig als menschenverachtend identifiziert werden können, sind reine Wortneuschöpfungen oder -umprägungen aus dem neofaschistischen Raum nicht immer leicht zu erkennen. Gerade die rechte Subkultur der „Incels“ – „involuntary celibates“ – ist für viele eindeutig abwertende Neologismen verantwortlich. Einige ihrer Neuschöpfungen konnten sich im allgemeinen Netzjargon etablieren. Ein Beispiel ist der „Chad“, ein Ausdruck, der ursprünglich in Incel-Communitys für sexuell aktive, gutaussehende Männer genutzt wird, die anderen Männern die Sexualpartnerinnen wegschnappen. Zu Beginn wurde der Ausdruck meist ironisch genutzt, mittlerweile wird „Chad“ immer öfter ohne Hintergedanken ähnlich wie „Dude“ oder „Kumpel“ verwendet. Auch aus anderen rechtsextremen Gruppen fließen Wörter in den allgemeinsprachlichen Onlinegebrauch – oft sogar durch die ironische Nutzung der politischen Gegner. Diese soll zwar eigentlich als Verunglimpfung dienen, wird häufig jedoch von Außenstehenden nicht als solche erkannt. So geschehen etwa mit „based“, das als neurechtes Kompliment gedacht war und
„un-woke“, also „nicht links“ bedeutet, mittlerweile jedoch auch im allgemeineren Social Media-Slang als Kompliment dienen kann. Eine ironische Nutzung durch z.B. antifaschistische linke User:innen wird dabei von außen oft nicht erkannt. Das Wort kann so die abschreckende Wirkung verlieren, die eine erkennbare, ausschließliche Nutzung durch rechte Gruppen oft mit sich bringt.
Diese Mechanismen der Legitimierung können gefährlich sein, weil sie potenziell Strukturen vertretbar wirken lassen, die sich durch ihre Vorreiterschaft bei Slang-Prägungen als trendig und cool inszenieren können. Memes und Szenebegriffe in Picture-Sharing-Communitys und auf Social Media können als Anknüpfungspunkt und Sprungbrett hinein in neurechte Gruppen und damit mittelbar zu härteren Formen rechtsextremen Gedankenguts dienen.
Dieser Text ist ein Auszug aus der Broschüre:
Amadeu Antonio Stiftung / Good Gaming – Well Played Democracy:
„Unverpixelter Hass. Toxische und rechtsextreme Gaming-Communities.“
Berlin 2022
90 Seiten