Hassrede, Trolle, Fake News und andere Demokratie-Attacken

Ein Workshop für Journalisten über die Herausforderungen der Medienwelt von heute – Teil 1

Im Universum der Sozialen Medien verbringt der Rumäne rund sieben Stunden am Tag... | Grafik: www.visualcapitalist.com

Sind Minderheitenrechte „Extra-Rechte“ für Minderheiten - oder Menschenrechte, die ihnen zustehen? Warum sind gewisse Symbole oder Reden – die Swastika, Holocaustleugnung – verboten? Ist diese Einschränkung der freien Meinung nicht eine Art Zensur? Warum haben wir bis heute kein Roma-Staatstheater? Und warum müssten wir eigentlich eines haben? Wie „böse Bots“ und Trolle im Internet Massen manipulieren und Demokratie auf eine Zerreissprobe stellen... Warum Hassrede Menschenrechte unterminiert und welche wichtige Rolle Journalisten in Prävention und Eindämmung spielen... Dass Völkermord nicht nur von Psychopathen begangen wird und in welchen vorhersehbaren Stufen sich Massengräueltaten anschleichen... Und schließlich über den grotesken Versuch eines westlichen Konzerns, die Pressefreiheit zu unterminieren, dem ausgerechnet in Rumänien die Stirn geboten wurde...  

Diesen Fragen und spannenden Themen fühlen rund 25 Teilnehmer mithilfe von sieben Experten an zwei intensiven Tagen auf den Grund. Der Workshop „Menschenrechte und nationale Minderheiten zwischen Normalität und Realität“ (14./15. Dezember 2023 im Bukarester Goethe-Institut), richtete sich gezielt an TV-Journalisten und wurde vom Departement für Interethnische Beziehungen der Regierung Rumäniens (DRI) in Partnerschaft mit der Hanns Seidel Stiftung (HSS) und dem staatlichen Fernsehsender TVR organisiert. Die Maßnahme zur Sensibilisierung von Journalisten kommt wie gerufen in einer Zeit, in der unser demokratisches Wertesystem in Europa wie nie zuvor Zielscheibe subversiver Kräfte geworden ist. Doch Journalisten können Multiplikatoren sein im Kampf gegen Hassrede, Rassismus, Diskriminierung, Xenophobie, Antisemitismus, Antiziganismus und andere Angriffe auf unsere Freiheit, Gleichheit und Menschenrechte.

Diskriminierung geht auch passiv

Sind Minderheitenrechte „Extra-Rechte“ – oder Menschenrechte, die den Minderheiten zustehen? „Viele glauben ersteres – falsch!“, erklärt Enikö Lacziko, Beraterin im Rechnungshof, davor acht Jahre lang Leiterin des DRI, in ihrem Vortrag über nationale Minderheitenrechte versus Antisemititsmus, Xenophobie und Intoleranz. Es gibt ein Recht auf Identität, auf Gleichstellung – und darauf, selbst zu entscheiden, ob man als Minderheit (religiös, ethnisch, sprachlich, national) behandelt wird oder nicht. „Das Problem bei Diskriminierung ist nie das Opfer, sondern das Vorurteil des Betrachters“, stellt sie klar. Diskriminierung oder Rassismus kann auch passiv geschehen, erläutert sie am Beispiel der Staatstheater für Minderheiten: Es gibt ein deutsches, ein ungarisches und ein jüdisches, bald auch ein serbisches, aber bis heute kein Roma-Staatstheater, trotz der Größe dieser Ethnie. Aber warum überhaupt staatliches Theater für Minderheiten? „Weil es ein Recht auf kulturelle Identität, Kulturausübung und Zugang zu Kultur gibt“, erklärt Lacziko. Und Rumänien sei vorbildlich, was den Rechtsrahmen betrifft – es hapert nur bei der Umsetzung: Geplant ist das Roma-Staatstheater schon seit 2002, aber es mangelte stets an Implikation, Geld, Projekten... Ein anderes Beispiel sind die Beipackzettel von Medikamenten, die laut Gesetz in allen Minderheitensprache erscheinen müssten. Oder das Verbot nazistischer Symbole: zur Illustration projiziert sie die ehemalige Schulbank ihrer Tochter an die Wand. Hingekritzelte Hakenkreuze, nicht nur in dieser, sondern in vielen Bänken und Schulen. Tägliche Konfrontation von Kindern mit verbotenen Symbolen, die keine Schulleitung sieht, oder zumindest thematisiert, geschweige denn entfernt. Warum aber braucht es Verbote von antisemitischen Symbolen oder Reden wie etwa Holocaustleugnung – ist das nicht Zensur? „Nein“, widerspricht Lacziko. „Wir brauchen sie als Filter, wie man gewisse Dinge kommuniziert.“

Obskure Symbole kennen

Dragoș Hotea, Staatssekretär in der Kanzlei des Premierministers, zuständig für die nationale Strategie zur Prävention und Bekämpfung von Antisemititmus, Xenophobie und Hassrede, geht von der These aus, dass die Mehrheit die Minderheiten nicht dominieren, sondern schützen müsse. Denn Kampf gegen Antisemitimus, Rassismus, Xenophobie bedeutet Schutz der Demokratie. Hotea zeigt Beispiele auf: die Vandalisierung von Denkmälern oder Kultusobjekten hierzulande; manipulative Reden, gebetsmühlenartig wiederholt, wie die von Putin zur „Denazifizierung“ der Ukraine. Er sensibilisiert aber auch für obskure Codes, die wichtig sind, wenn es um die Monitorisierung von Internet-Kommentaren geht, denn diese sollten in der Öffentlichkeit nicht erscheinen: So verweisen Namen, in drei Klammern gestellt, „diskret“ darauf, dass der Genannte Jude sei. Die Zahl 18 stehe für „Adolf Hitler“ (1 als erster Buchstabe A, wie Adolf; 8 als achter H, wie Hitler), 14 für die „Überlegenheit der weißen Rasse“. 6MWe bedeutet, „six Millions weren’t enough“ und bezieht sich auf die 6 Millionen im Holocaust ermordeten Juden. Es gibt Listen für solche Symbole, Journalisten könnten sich hierzu beim DRI und beim Nationalen Institut für das Studium des Holocaust „Elie Wiesel“ informieren, so Hotea. Viele Symbole dienen als obskure Erkennungszeichen für eine bestimmte Gesinnung. Gabriela Ghindea vom Auschwitz Institut projiziert als Beispiel ein Plakat der Umwelt-Ikone Greta Thunberg an die Wand: Es zeigt sie mit einer Flagge „Save Palestine“ – und einer winzigen Plüschkrake, antisemistisches Symbol für die „krakenhafte Machtstruktur“ des Weltjudentums.

Im Universum der Sozialen Medien

Sieben Stunden täglich verbringen Rumänen im Internet, erklärt Dr. Bogdan Oprea, Journalismus-Professor an der Uni Bukarest, der seit über 8 Jahren zum Einfluss von Fake News und Desinformation auf die Demokratie forscht. Hauptschauplatz: das Internet. Die Global Player dieses Universums, die sozialen Medien, stellt er bildhaft als Planeten dar (siehe Grafik, Stand 2020). Die größte Planetengruppe: Facebook (blau) mit 2.603.000.000 monatlich aktiven Usern (MAU), gefolgt von Whatsapp (grün) mit 2.000.000.000 MAU, Messenger (rot) mit 1.300.000.000 MAU und Instagram (blau) mit 1.082.000.000 – die alle zur gleichen Firma gehören! Die mittlere Gruppe in der Grafik bilden YouTube (2.000.000.000 MAU), Reddit (430.000.000), SnapChat (397.000.000), Pinterest (367.000.000), Twitter (326.000.000), LinkedIn (310.000.000), Twitch (140.000.000). Rechts die Medien des asiatischen Gürtels: WeChat (1.203.000.000), TikTok (800.000.000), QQ (694.000.000), Weibo (550.000.000), Ozone (517.000.000), Telegram (400.000.000), Viber (260.000.000), Line (187.000.000) und VKontakte (100.000.000). Von den Top 15 Plattformen für Sozialisierung, Video Sharing und Chat (Stand: Januar 2023) haben acht ihre Sitze in den USA (Facebook, YouTube, Whatsapp, Instagram, Messenger, SnapChat, Twitter, Pinterest), sechs in China (WeChat, TikTok,etc.) und eine in Russland (Telegram).

Ein Drittel „böse Bots“

Den größten Teil des Verkehrs im Internet machen inzwischen Bots aus – automatisierte Programme, die oft vortäuschen, Personen zu sein. Davon sind rund ein Drittel „böse Bots“, auf Manipulation und Betrug ausgerichtet, erklärt Oprea. Sie erstellen falsche Ratings und Reviews, erteilen bestellte Likes, werden eingesetzt, um Geschäftsgegner zu ruinieren oder Wählermeinungen zu beeinflussen. Als Beispiel eine simple Methode, einen Konkurrenten auszuschalten: Am Black Friday werden von Bots alle Plasma-TV-Geräte eines Anbieters in den Einkaufskorb befördert und blockiert, was die echten Kunden automatisch zu anderen Anbietern dirigiert. Wie groß das Ausmaß der nichthumanen Kommunikation bereits geworden ist, zeigen diese Expertenberichte: Aus dem „Imperva Bad Bot Report“ geht hervor, dass im Jahr 2022 ganze 42,3% des Internet-Verkehrs nicht-human waren; 2020 waren es 40,8%, im Jahr davor 37,2%. 2022 wurden davon 27,7% als böse Bots enttarnt. Die Weltbank behauptete 2023: Es gibt auf Facebook ungefähr zehn Mal so viele Bots wie aktive menschliche User – und 3,65 Mal so viele wie die Weltbevölkerung. Von Oktober 2017 bis März 2023 hat Facebook 29,01 Milliarden falsche Konten gelöscht (das sind nur die erkannten!). LinkedIn hat zwischen Januar 2019 und Dezember 2022 196,37 Millionen falsche Konten eliminiert – 0,63% der aktiven User.

Bezahlte Saboteure – Trolling

Daneben gibt es Trolle – reale Personen, die im Auftrag anderer manipulieren. Sie treffen sich in Büros wie Redakteure in einer Redaktion, haben Zielvorgaben, eine Agenda, verbreiten gezielt Narrative. Sie greifen ein Land, eine Region oder eine Firma an und werden für Sabotage bezahlt. Eine Studie der Uni Bukarest zur Kampagne der Präsidentschaftswahlen 2019 ergab zum Thema Trolling: Bis zu 41,37% der Shares der offiziellen Posts der Kandidaten erfolgten durch User, die diese mindesten viermal geteilt haben; bis zu 13,34% der Shares wurden vom selben User bis zu 30 Mal weiterverteilt und 19,44% der User, die diese Posts mindestens zehnmal weiterverteilt haben, sind erwiesenermaßen nicht human, sondern „böse Bots“, die die politische Debatte manipulieren. Identifiziert wurden sie durch „nicht authentisches“ menschliches Verhalten: Likes und Shares immer zur selben Stunde, fehlende andere Aktivitäten auf den Konten, keine persönlichen Posts, keine biografische Historie. Die „Washington Post“ berichtete in einem Artikel vom 16. April 2023 : Die russische Regierung hatte viel mehr Erfolg in der Manipulation von Sozialen Netzen und dem Ranking von Suchmaschinen, als man zuvor angenommen hatte. Hunderttausende falsche Online-Konten wurden genutzt zur Verbreitung von Lügen über die ukrainische Armee sowie über angebliche Nebenreaktionen von Impfungen. Die Operateure dieser Konten brüsten sich damit, in nur einem von hundert Fällen von den Netzbetreibern enttarnt zu werden. Laut einer Studie des Massachusetts Institute of Technology (MIT) haben Fake News eine 70% größere Chance auf Weiterverteilung als wahre Nachrichten. Außerdem dauert die Verbreitung einer wahren Nachricht an dieselbe Anzahl von Empfängern sechsmal so lang. Laut Recherchen der Uni Buka- rest gibt es Online-Dienste, die für relativ wenig Geld den Service von Bots oder Trollen anbieten: Für 15 USD kann man Fake News zwischen 500-800 Wörtern bestellen, für 45 USD 10.000 Followers pro Tag oder für 1700 USD ein Paket von 10 Fake News mit 100.000 Likes und 50.000 Tweets. Andere Dienste bieten 5000 Unterschriften für eine Online-Petition um 379,88 Euro. Es gibt sogar kostenlose Apps, die die Erstellung von Fake News und Bots unterstützen. Mithilfe von KI lassen sich Profile mit menschlichen Gesichtern kreieren, Videos erstellen oder manipulieren, eine fremde Stimme in den Mund einer Person legen, Fake Texte und Messages konzipieren und vieles mehr.

Teil 2