Memes als Teil extrem rechter Online-Kommunikation verbreiten menschenfeindliche Ideologie. Dabei wirken sie als Kitt und Motivation in die eigene Szene, schaffen Gemeinschaftsmomente und Zugehörigkeit, wenn sie gemeinschaftlich erstellt oder ihre gemeinsame Verbreitung als Meme War oder Shitstorm organisiert wird.
Die Verbreitung extrem rechter Memes testet aber auch die Aufmerksamkeit von digitalen Kommunikationsräumen wie Kommentarspalten, Kanälen oder Foren aus – werden antisemitische, queerfeindliche oder rassistische Memes moderiert oder gelöscht, kommentieren andere Nutzer*innen zustimmend oder ablehnend, oder werden sie als „Humor‟ akzeptiert oder nicht erkannt?
Entsprechend haben sie auch einen Effekt auf nicht-rechte Öffentlichkeit: Sie normalisieren Abwertung, auch durch ständige Wiederholung. Sie erleichtern die Verbreitung von Menschenfeindlichkeiten etwa im Klassen- oder Kolleg*innen-Chat, weil diese als „Humor“ präsentiert und bei Widerspruch zurückgenommen werden können. Auf Menschen, die zu den „Feindgruppen‟ extrem rechter Agitation gehören, haben sie einen Bedrohungseffekt, zeigen die Präsenz und Raumnahme extrem rechter Akteur*innen – vor allem, wenn sie kommentarlos stehen gelassen werden.
Grenzziehungen sind schwierig, aber nötig
Extrem rechte Memes arbeiten oft mit „Humor“. Hierbei geht es allerdings meist nicht um bissige Satire als Gegenwehr zu gesellschaftlich einflussreichen Positionen, sondern um die Verbreitung von Abwertung gegen gesellschaftlich schwache Gruppen oder Minderheiten, nicht selten verbunden mit Gewaltandrohungen („Hausbesuche“) oder imaginierten Gewalttaten („Dir sollte mal jemand …“). Dazu arbeiten extrem rechte Memes mit Dogwhistles, also Andeutungen, die in der Szene und von Opfern verstanden werden, aber nicht unbedingt von der breiten Öffentlichkeit (z.B. Globalist*innen für Jüdinnen*Juden).
Rechtssprechung hilft oft nicht: Weil der Hass subtil geäußert oder als „schwarzer Humor“ gelabelt wird, gibt es für Memes bislang wenig strafrechtliche Konsequenzen, wenn sie nicht extrem explizit sind, wie mit abgebildeten Waffen und benannten Opfergruppen oder offener Holocaustleugnung. Trotzdem sollten solche Postings angezeigt werden, denn nur so wird ein Handlungsbedarf sichtbar: Polizist*innen und Jurist*innen müssen geschult werden, Hassinhalte in Memes zu erkennen und entsprechend zu handeln, wenn sie strafrechtlich relevante Komponenten enthalten. Viele extrem rechte Memes fallen aber trotzdem unter die Meinungsäußerungsfreiheit.
Soziale Netzwerke helfen oft nicht: Weil juristische Einordnungen oft die Grundlage für Moderationshandlungen sozialer Netzwerke sind, bleiben „Schwarze Humor“-Gruppen (die in der Regel eine Mischung aus unpolitischen und extrem rechten Memes enthalten) oder extrem rechte Memes als Postings in der Regel auf Sozialen Netzwerken stehen. Denn gerade, wenn es um Formen von „Humor“ geht, der auf vielfältige Art und Weise grenzwertig sein kann, gibt es in den Policy Teams viel Angst vor Overblocking, sodass sogar Inhalte in Meme-Form auf den Plattformen bleiben, die in Schriftform gelöscht würden (gilt von YouTube bis TikTok). Auch hier gilt: Beiträge trotzdem melden und Druck auf Community Guidelines erhöhen – in diesen „digitalen Hausregeln“ dürfen Netzwerke nämlich mehr als nur Strafrecht einfließen lassen, um eine sichere Kommunikation auf ihrer Plattform für alle zu gewährleisten. Moderator*innen müssen entsprechen geschult werden – auch wenn das Arbeit bedeutet, weil die extrem rechte Szene ständig neue Codes erfindet.
Social Media Moderation kann helfen: Jede*r, der oder die einen Kanal betreibt, kann diesem Diskussionsregeln geben und entsprechend moderieren. Gerade bei vermeintlich grenzwertigen Inhalten brauchen die moderierenden Menschen klare Regeln, um konsequent zu handeln. Diese können etwa umfassen: Menschenfeindlichkeit bleibt Menschenfeindlichkeit, auch wenn sie sich „Humor“ nennt. Deshalb sollte etwa Rassismus in Meme-Form nicht als Kommentar oder Beitrag stehen bleiben, nur weil Social Media-Redakteur*innen oder Mitleser*innen auch kurz grinsen mussten: Wir sind alle in einer rassistischen Gesellschaft sozialisiert und bei den meisten von uns sind rassistische Klischees abrufbar. Aber: Sobald Menschen durch die Meme-Inhalte verletzt werden, ist es Zeit, eine Entscheidung zu treffen, sich solidarisch an die Seite der Angegriffenen zu stellen und solche Inhalte nicht online zu lassen. Gerade wenn von der Diskriminierung betroffenen Personen sich melden, ist es Zeit, diese Meldungen ernsthaft zu bearbeiten und zu handeln.
Nutzer*innen können handeln: Gleiches gilt natürlich für Social Media-Nutzer*innen. Sie sollten etwa antisemitische, islamfeindliche, sexistische, NS-verherrlichende Inhalte nicht teilen – auch nicht, wenn sie zuerst über ein Meme zunächst gelacht haben sollten. Werden extrem rechte Memes im Klassenchat, im Familienchat oder im Kolleg*innen-Chat geteilt, sollte dies zu Reaktionen führen: Denn Nichtstun wird in der Regel als Zustimmung verstanden, sowohl vom Postenden als auch von Betroffenen. Dabei reicht zuerst eine Anfrage, gern auch nicht-öffentlich, wie der postende Menschen das Meme versteht – denn vielleicht hat er*sie gar nicht bemerkt, dass es sich um ein extrem rechtes Meme handelt, und ist bereit, es schnell selbst zu löschen. Möchte der*die Postende das Meme nicht löschen, können die Mitlesenden durch einen Kommentar über den extrem rechten Ursprung oder Inhalt informiert werden. Auch eine klare Positionierung hilft – den Betroffenen, aber auch den Mitlesenden, die sich dann vielleicht trauen, sich selbst zu positionieren („Das finde ich rassistisch, das passt nicht in unseren Chat‟). Gemeinsam können dann Regeln besprochen werden, welche Memes in einem Chat unerwünscht sind. Denn es geht auch um Institutionalisierung: Gut wäre, wenn jede Messenger-Gruppe sich einen Code of Conduct gegen gruppenbezogene Menschenfeindlichkeit und rechtsextreme Inhalte geben würde – das gilt für Klassenchats genauso wie für Polizei- oder Feuerwehr-Gruppen.
Über den Vorwurf „Du hast ja offenbar gar keinen Humor“, der reflexartig (auch als Selbstverteidigung) kommt, wenn geteilte extrem rechte Memes kritisiert werden, sollten wir erhaben sein, wenn auf der anderen Seite Menschen diskriminiert und bedroht werden: „Stimmt, wenn Rassismus oder Sexismus ins Spiel kommen, finde ich das nicht lustig.“ Wenn jede*r dies im eigenen Umfeld umsetzen würde, wäre schon viel gewonnen.
Informationen und Anlaufstellen
Civic.net – Aktiv gegen Hass im Netz
Workshops und Fortbildungen rund um das Thema Hate Speech, digitale Demokratie und Empowerment
- +49 (0) 30 240 886 55
- civicnet@amadeu-antonio-stiftung.de
- www.amadeu-antonio-stiftung.de/civicnet
Firewall – Hass im Netz begegnen und re:set – Jugend gegen Hass im Netz
Trainings in Ihrer Schule/Einrichtung für Jugendliche und erwachsene Multiplikator:innen zum Umgang mit Hate Speech, Desinformation, Verschwörungsideologien in der digitalen Welt
- +49 (0) 30 240 886 24
- firewall@amadeu-antonio-stiftung.de
- www.amadeu-antonio-stiftung.de/projekte/firewall
- reset@amadeu-antonio-stiftung.de
- www.amadeu-antonio-stiftung.de/projekte/reset
Good Gaming – Well Played Democracy
Unterstützung beim Awareness Raising, Argumentieren und beim Aufbau demokratischer Netzwerke für Gaming Communities
- +49 (0) 30 240 886 24
- goodgaming@amadeu-antonio-stiftung.de
- www.amadeu-antonio-stiftung.de/projekte/good-gaming-well-played-democracy
pre:bunk – Online-Prävention im Videoformat
Online-Präventionsarbeit und Informationskompetenz für Jugendliche via TikTok
- +49 (0) 30 240 886 24
- prebunk@amadeu-antonio-stiftung.de
- www.amadeu-antonio-stiftung.de/projekte/prebunk-digital-streetwork-im-videoformat/
Dieser Text ist ein Auszug aus der Broschüre:
Amadeu Antonio Stiftung / MISRIK:
Kreative, ans Werk! Memes in extrem rechter Internetkommunikation
Berlin 2023