Desinformationen sind für den gesellschaftlichen Frieden schädlich, sie können Straftatbestände enthalten wie üble Nachrede, Verleumdung, Beleidigung oder Volksverhetzung, aber das Verbreiten von Desinformationen ist in den wenigsten Fällen strafbar und in der Regel von der Meinungsfreiheit gedeckt. Deshalb werden andere Maßnahmen gegen Desinformationen auf Sozialen Netzwerken diskutiert. So fordert etwa in der Coronavirus-Pandemie die Vizechefin der EU-Kommission und Kommissarin für Werte und Transparenz, Věra Jourová, ein Gesetz, das die Verbreitung von sicherheitsrelevanten Falschinformationen, die Panik und Angst schüren könnten, unter Strafe stellt. Ähnlich sieht das Niedersachsens ehemaliger Innenminister Boris Pistorius (heute Verteidigungsminister), der findet, es müsse „verboten werden, öffentlich unwahre Behauptungen die Versorgungslage der Bevölkerung, die medizinische Versorgung oder Ursache, Ansteckungswege, Diagnose und Therapie von COVID-19 betreffend zu verbreiten“. Dies sind aber bisher nur Forderungen.
Als andere Möglichkeit wurde von der EU-Kommission ein Verhaltenskodex für Soziale Netzwerke angeregt. Mehrere Unternehmen folgten der Aufforderung zur Selbstregulierung und unterzeichneten den seit 2018 existierenden Kodex, der kontinuierlich überarbeitet wird. Darin werden unter anderem die Förderung von Faktenchecks sowie Kennzeichnungsregelungen für Bots und Bemühungen zur Schließung von Scheinkonten (also Fake-Accounts und Sockenpuppen) empfohlen. Unterzeichnet haben den Verhaltenskodex aus dem Bereich der Sozialen Netzwerke unter anderem Google, Meta (Facebook, Instagram), Twitter, Microsoft, TikTok, Mozilla, Vimeo und Clubhouse. 2020 stellte allerdings ein zum Kodex gehöriges Expert*innen-Gremium fest, dass dieser nicht sehr tauglich sei. Es fehlten Transparenz und Zugang zu Datensets, um die Wirksamkeit einzelner Maßnahmen zu beurteilen, sowie Sanktionsmöglichkeiten bei Nichteinhaltung des Kodex. 2021 wurde der Verhaltenskodex deshalb überarbeitet. Neuaufgenommene Maßnahmen sind:
■ Mehr Unterzeichner des Kodex – neben Plattformen auch Akteur der Online-Werbung, Nachrichtendienste, Faktenchecker. Sie sollen helfen, die Umsetzung zu verbessern.
■ Wer systematisch Falschinformationen über Anzeigen verbreitet, soll von Werbemöglichkeiten auf den Plattformen ausgeschlossen werden, damit so keine Einnahmen mehr mit Desinformation erzielt werden können.
■ Bekämpfung jeder Form von manipulativem Verhalten auf der Plattform – etwa Bots, Scheinkonten, organisierte Manipulationskampagnen, Kontenübernahmen.
■ Entwicklung von Instrumenten für Nutzer*innen, um Desinformationen besser zu erkennen:
- Eine transparente Gestaltung von Empfehlungssystemen (also Algorithmen), die verlässliche Informationen bevorzugen sollen.
- Einfache Meldewege für Desinformationen, „die Schäden für die Öffentlichkeit oder für Einzelne verursachen können.”
- Mehr Sichtbarkeit für zuverlässige Informationen von öffentlichem Interesse
- Warnungen für Nutzer*innen, die dabei sind, mit Inhalten zu interagieren, die von Faktenprüfern als falsch gekennzeichnet wurden – etwa durch Hinweise unter den Posts auf verlässliche Quellen.
■ Ausweitung der Faktenprüfungen und Verbesserung des Datenzugangs für Forschende.
■ Ein wirkungsvollerer Kontrollrahmen durch regelmäßige Berichte der Plattformen über die Umsetzung und die Einrichtung eines Transparenzzentrums. Diese Reports sind auch online einsehbar. Vor allem geht es um die Zahlen der heruntergenommenen Posts und Akteur*innen, die Desinformationen zur Pandemie verbreiteten, und um Besucher*innen der plattformeigenen Informationsseiten mit verlässlichen Organisationen.
Die Berichte zeigen, dass einige dieser Forderungen in Bezug auf die Coronavirus-Pandemie auf den Plattformen inzwischen umgesetzt worden: etwa die Kennzeichnung von potenziell problematischen Inhalten, Verweise auf (oft plattformeigene) Informationsseiten mit verlässlichen Informationen unter Posts, Videos, Suchanfragen oder Hashtags. Auch die Sperrung von Accounts, Posts und Hashtags wird praktiziert und mehr Geld in Faktenchecks investiert, die Desinformationen widerlegen sollen. Zudem sollen kreative Formate helfen, vor Desinformationen zu warnen und Nutzer*innen darauf aufmerksam zu machen. Dazu gehören auch Werbekampagnen auf der Plattform. YouTube experimentiert etwa seit 2020 –zunächst in den USA – mit „Prebunking”-Videos im Stil beliebter TV-Cartoons. Die Simpsons oder Figuren der erfolgreichen Animationsserie „Family Guy“ erklären im Vorfeld eines Videos, wie Nutzer*innen von Falschinformationen manipuliert werden können. Wissenschaftler*innen zufolge sollen solche Warnungen Menschen weniger anfällig für Desinformationen machen.
Umfassendere Eingriffe in Geschäftsmodelle der Plattformen werden dagegen weniger oder zumindest weniger transparent umgesetzt, etwa die Gestaltung der Empfehlungsalgorithmen oder die Bekämpfung von Fake Accounts – hier werden bisher nur diejenigen gesperrt, die „schädigendes Verhalten” zeigen. Was darunter fällt, bleibt zumeist den Plattformen überlassen. Dies könnte sich allerdings mit dem „Digital Services Act” ändern, den das EU-Parlament im Juli 2022 verabschiedet hat. Dem muss noch der Europarat zustimmen. Dann ist es in der EU etwa Gesetz, dass die Netzwerke ihre algorithmischen Empfehlungsdienste transparenter darlegen und den Nutzer*innen erläutern müssen, warum ihnen welche Inhalte angezeigt werden. Zudem sollen sie die Wahl haben, ob sie Beiträge in chronologischer Reihenfolge anstatt durch Algorithmen bestimmt sehen wollen.
Diese politischen Diskussionen und Maßnahmen zeigen, dass die Politiksteigenden Handlungsbedarf bei den Sozialen Medien als Multiplikatoren von Desinformationen sieht. Ein politischer Umgang, der auch strengere gesetzliche Kontrollen vorsieht, ist demnach absehbar, doch wird das allein nicht reichen, um Desinformationen nachhaltig zu bekämpfen.