Wie Rechtsextreme das Netz vergiften

Vorstellung der ISD-Studie: Moderatorin Shelly Kupferberg mit den Forscher*innen Jan Rau und Julia Ebner (v.ln.r.) Foto: Stefan Röben

Von der lancierten „Umweltsau“-Debatte bis zu rechtsterroristischen Anschlägen wie 2019 in Halle – extremistische Akteur*innen im Internet vergiften den demokratischen Diskurs und können User radikalisieren. Das ist Ergebnis einer Studie des Institute for Strategic Dialogue (ISD) zum „Online-Ökosystem rechtsextremer Akteur*innen“. Darüber diskutierten Engagierte aus Politik, Medien und Zivilgesellschaft jüngst in Berlin.

„Rechtsextreme organisieren sich nicht nur auf großen Plattformen, sondern auch abseits im Netz“, so ISD-Forscherin Julia Ebner bei der Vorstellung der Studie, die von der Robert-Bosch-Stiftung gefördert wurde. Struktur und Funktionsweise wurden erforscht, um daraus Empfehlungen abzuleiten, wie rechtsextremistische Inhalte im Netz wirksam und Plattformgerecht bekämpft werden können. Die Dezentralisierung macht die rechten Akteur*innen nicht weniger gefährlich, denn sie sind international durch einen „inspirativen Terrorismus“ miteinander verbunden, der im Livestreaming von Gewalttaten sichtbar wird. „Der Attentäter von Halle stellte sein Video auf Englisch online“, erläuterte Ebner und verwies darauf, dass sich die Attentate Rechtsextremer, die in transnationale „Online-Subkulturen eingetaucht“ sind, seit 2015 verdreifacht haben.  Rechtsextremistische Akteur*innen versuchten, nationale Politik gezielt zu beeinflussen – wie etwa Reconquista Germanica, die bei der Bundestagswahl 2017 Debatten zugunsten der AfD manipulierte und sich mittels der Gaming-App Discord vernetzte.

Da rechtsextremistische Internet-Communities in Deutschland durch öffentlichen Druck und Gesetze von Facebook oder Twitter vertrieben werden, tummeln sie sich zumeist auf kleinen alternativen Plattformen, wobei nur wenige explizit rechtsextremistisch sind. Bei den meisten handelt es sich um Portale, die eine grenzenlose Meinungsfreiheit zulassen und um solche, die gekapert wurden und ursprünglich ganz anderen Zwecken – etwa Gaming – dienten.

Zehn dieser instrumentalisierten deutschsprachigen Plattformen haben die ISD-Forscher*innen 2019 in ihrer explorativen Studie unter die Lupe genommen und dort 375 rechtsextremistische Communities identifiziert – an der Spitze der Messenger-Dienst „Telegram“ mit 129 Kanälen und das russische soziale Netzwerk VK mit 115 Gruppen. Am besten organisiert seien die Identitären, die zwar auf wenigen Kanälen präsent seien, aber viele Follower hätten. Ebners Kollege Jan Rau, der die inhaltliche Ausrichtung der Communities analysiert hat, konstatierte als besonders „erschreckendes Ergebnis“ die antisemitischen Narrative, die mehr als die Hälfte der Posts auf dem Internetforum „4chan“ ausmachten. Alle Plattformen thematisierten Gefahren der Einwanderung und das verschwörungstheoretische Narrativ vom „Großen Austausch“ der Bevölkerung oder der „Islamisierung“.

Klare Unterscheidung zwischen Hetze und Meinungsfreiheit notwendig

Die Reichweite dieser rechtsextremistischen Narrative werde durch Webseiten verstärkt, die sich als „alternative Nachrichtenquelle“ zum Mainstream präsentierten. Um das Zusammenspiel zwischen Mainstream- und Alternativmedien zu erforschen, verglichen die Forscher*innen, wie viele Artikel jeweils zu fünf ausgewählten Themen veröffentlicht wurden. Mit Ausnahme von Konzepten Identitärer Bewegungen machten Verschwörungstheorien, „Migrantenkriminalität“, Angst vor „Islamisierung“ und Angriffe auf politische Gegner*innen bis zu sechs Prozent aller Veröffentlichungen in alternativen Medien aus, während sie im Mainstream fast nur anlässlich konkreter Ereignisse aufgegriffen wurden.

Wenn rechtsextremistischen Akteur*innen der Account auf großen Plattformen wie Facebook oder Youtube gesperrt wird, wandern die meisten ihrer Follower nicht mit in die alternativen Nischen ab. Das De-Platforming sei also durchaus erfolgreich, um die Reichweite rechtsextremistischer Hetze einzuschränken, so Rau. Dabei sei es aber wichtig, die Kriterien für die Sperrung transparent zu machen, damit die User sich nicht in ihrer Meinungsfreiheit eingeschränkt fühlen und weiter radikalisieren.

Zu Beginn der Diskussion über diese und andere Empfehlungen der Studie warnte Investigativjournalistin Lena Kampf Redaktionen davor, rechtsextremistischen Akteur*innen „auf den Leim zu gehen“. Bei Anschlägen wie in Halle könne man nicht genug berichten, müsse Strukturen und Ursachen für die Taten aufdecken. Aber auch Shitstorms wie zum Satire-Video „Umweltsau“ kämen „nicht aus dem Nichts“. Etablierte Medien hätten vorsichtiger sein müssen, denn es handelte sich nicht um Volkszorn, der sich in der Debatte entlud, sondern um eine von Rechtsextremist*innen „gezielt hervorgerufene Empörung“, die in den Medien Widerhall fand und auf die Politiker wie Ministerpräsident Laschet reagierten.

Das Diskussionspodium: Hanna Gleiß (Das Nettz), Gerd Billen (Bundesjustizministerium), Lena Kampf (Journalistin), Konstantin von Notz (MdB, Grüne), Julia Ebner (ISD) und Moderatorin Shelly Kupferberg (v.l.n.r.) Foto: Stefan Röben

Auch Justiz-Staatssekretär Gerd Billen betonte, wie wichtig es sei, die Strukturen der Netzaktivitäten Rechtsextremer aufzudecken, um die von ihnen genutzten Plattformen adäquat zu regulieren. Denn die Demokratie werde destabilisiert, wenn Rechtsradikale im Internet Treibjagden, vor allem auf Kommunalpolitiker*innen, Frauen, Angehörige von Religionsgruppen organisierten und Bürgermeister einschüchterten. Der Grünen-Netzpolitiker Konstantin von Notz verlangte in diesem Zusammenhang eine klare Unterscheidung zwischen einer solchen Hetze und dem Grundrecht auf Meinungsfreiheit. Der Diskurs sei „durchwirkt von Regeln“ – etwa im öffentlich-rechtlichen Rundfunk wie im Straßenverkehr – und wenn es die nicht gäbe, sei „die Hölle los“.

Frühwarnsystem für „Chat-basierten Terrorismus“

Diese Regeln fehlten oft auf kleineren Plattformen, auf die Rechtsextremist*innen abwandern. Das sei problematisch, so Julia Ebner, denn hier seien sie weniger unter Beobachtung, entwickelten eine Subkultur – mit einem besonderen Gruppengefühl und einer eigenen Sprache, lachten über die gleichen Scherze. Um dieses Vokabular zu dekodieren und Bedrohungen rechtzeitig zu erkennen, müsse man ein Frühwarnsystem mittels Algorithmen zur Spracherkennung installieren. Julia Kampf illustrierte die Gefahren am Beispiel von „Telegram“. Nach den Ausschreitungen in Chemnitz 2018 habe man genau rekonstruieren können, wie radikale Männer sich nach dem für einen Stadtfestbesucher tödlichen Streit „in Chatgruppen zu terroristischen Taten verabredet“ hätten. „Der Chat-basierte Terrorismus hat den Stammtisch ersetzt“, so Kampf.

Hanna Gleiß von der Koordinierungsstelle gegen Hate Speech „Das Nettz“ sagte, während staatliche Stellen „strafrechtlich Relevantes“ dekodierten, sei es Aufgabe der Zivilgesellschaft, den „Graubereich“ rechtsradikaler Hetze zu durchleuchten und den Hasskommentaren mit Gegenrede zu begegnen – wie etwa #ichbinhier, die als „Putztruppe“ auch auf großen Plattformen aktiv sind, denn die ersten fünf Kommentare entscheiden über den Verlauf einer Debatte. Um das Bewusstsein für die Radikalisierungsgefahr durch oft legale rechtsexstremistische Inhalte auf alternativen Plattformen zu schärfen, sei Medienkompetenz notwendig und müsse durch Schulungen vermittelt werden.

NetzDG sinnvoll überarbeiten

Das Netzwerkdurchsetzungs-Gesetz (NetzDG), das sich auf die Entfernung illegaler Inhalte beschränkt, solle jetzt überarbeitet werden, so Justiz-Staatssekretär Billen. Da Plattformen in Eigenregie löschen, solle möglicherweise ein Recht auf Gegendarstellung eingeräumt werden. Nach dem Anschlag in Halle 2019 wurde auch diskutiert, den Anwendungsbereich des NetzDG auszudehnen – etwa auf Gaming-Plattformen, die zu den von Rechtsextremisten gekaperten gehören.

Julia Ebner kritisierte am NetzDG, dass bei seiner Anwendung nur die Größe und nicht das Bedrohungspotential ausschlaggebend sei. So unterliegen nur große Unternehmen wie Facebook mit über zwei Millionen Nutzer*innen im Inland der Regulierung, nicht aber die kleineren Plattformen mit rechtsextremistischen Communities. Anderseits fehlten alternativen Portalbetreibenden aber auch die technischen Möglichkeiten, etwa terroristische Inhalte zu erkennen und zu löschen. Die ISD-Forscher*innen empfehlen da, in Zusammenarbeit im Mainstream-Plattformen eine Datenbank mit digitalen Fingerabdrücken zu nutzen, mit der ein erneutes Hochladen automatisch verhindert wird.

Das rechtsextremistische Online-Ökosystem kann nur durch Staat und Zivilgesellschaft gemeinsam bekämpft werden – mit Unterstützung von Wissenschaft, Wirtschaft und Medien, war sich die Runde einig. Notz: “Die Demokratie muss sich wehren!“


Alternative Wirklichkeiten

Detaillierte Einblicke in die inhaltlichen Medienstrategien Rechtsextremer gibt die von der Amadeu-Antonio-Stiftung herausgegebene Broschüre „Alternative Wirklichkeiten“.

nach oben

Weitere aktuelle Beiträge

Wichtiger Schritt gegen Einschüchterungsklagen

Die Europäische Union will Journalist*innen, Menschenrechtler*innen und Nichtregierungsorganisationen besser vor strategischen Einschüchterungsklagen (SLAPPs) schützen. Die Mitgliedstaaten gaben einer entsprechenden Richtlinie am Dienstag grünes Licht, das EU-Parlament hatte bereits Ende Februar zugestimmt. Die Regierungen haben nun zwei Jahre Zeit, sie in nationales Gesetze zu übertragen.
mehr »

Rundfunkbeitrag soll um 58 Cent steigen

Der finanzielle Spielraum von ARD, ZDF und Deutschlandradio schrumpft. Wie erwartet, empfiehlt die Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (KEF) eine Erhöhung des monatlichen Rundfunkbeitrags ab 2025 um 58 Cent auf 18,94 Euro. Die von einigen Ministerpräsidenten geäußerten Forderungen nach Beitragsstabilität sieht die KEF angesichts der inflationären Entwicklung als übererfüllt an. Ver.di warnt vor weiterem Programmabbau und noch mehr Druck auf die Rundfunkbeschäftigen.
mehr »

Hörfunkrat begrüßt Reformdebatte

Deutschlandradio-Intendant Stefan Raue hat den Bericht des Rates für die zukünftige Entwicklung des öffentlich-rechtlichen Rundfunks (Zukunftsrat) positiv gewürdigt. Es sei ein Verdienst des Expertengremiums, dass die Reformdebatte seit der Vorlage des Berichts vor fünf Wochen (am 18.1.) „deutlich entspannter und sachlicher“ geführt werde, erklärte Raue auf der jüngsten Sitzung des im Januar neu konstituierten DLR-Hörfunkrats am 22. Februar in Berlin.
mehr »

Verbindliche Regeln zur KI erforderlich

Klare Regeln für den Einsatz Künstlicher Intelligenz (KI) fordern Schauspieler*innen, Schriftsteller*innen oder Journalisten*innen immer drängender. In der Reihe "DGB-Dialog Künstliche Intelligenz" ging es am 22. Februar um "Alles Fake?! KI in Medien und Kultur“. Mittlerweile werde die generative KI so mächtig, dass sie Teile menschlicher Arbeit tatsächlich ersetzen könne, hieß es in der Diskussion. 
mehr »