Wie Rechtsextreme das Netz vergiften

Vorstellung der ISD-Studie: Moderatorin Shelly Kupferberg mit den Forscher*innen Jan Rau und Julia Ebner (v.ln.r.) Foto: Stefan Röben

Von der lancierten „Umweltsau“-Debatte bis zu rechtsterroristischen Anschlägen wie 2019 in Halle – extremistische Akteur*innen im Internet vergiften den demokratischen Diskurs und können User radikalisieren. Das ist Ergebnis einer Studie des Institute for Strategic Dialogue (ISD) zum „Online-Ökosystem rechtsextremer Akteur*innen“. Darüber diskutierten Engagierte aus Politik, Medien und Zivilgesellschaft jüngst in Berlin.

„Rechtsextreme organisieren sich nicht nur auf großen Plattformen, sondern auch abseits im Netz“, so ISD-Forscherin Julia Ebner bei der Vorstellung der Studie, die von der Robert-Bosch-Stiftung gefördert wurde. Struktur und Funktionsweise wurden erforscht, um daraus Empfehlungen abzuleiten, wie rechtsextremistische Inhalte im Netz wirksam und Plattformgerecht bekämpft werden können. Die Dezentralisierung macht die rechten Akteur*innen nicht weniger gefährlich, denn sie sind international durch einen „inspirativen Terrorismus“ miteinander verbunden, der im Livestreaming von Gewalttaten sichtbar wird. „Der Attentäter von Halle stellte sein Video auf Englisch online“, erläuterte Ebner und verwies darauf, dass sich die Attentate Rechtsextremer, die in transnationale „Online-Subkulturen eingetaucht“ sind, seit 2015 verdreifacht haben.  Rechtsextremistische Akteur*innen versuchten, nationale Politik gezielt zu beeinflussen – wie etwa Reconquista Germanica, die bei der Bundestagswahl 2017 Debatten zugunsten der AfD manipulierte und sich mittels der Gaming-App Discord vernetzte.

Da rechtsextremistische Internet-Communities in Deutschland durch öffentlichen Druck und Gesetze von Facebook oder Twitter vertrieben werden, tummeln sie sich zumeist auf kleinen alternativen Plattformen, wobei nur wenige explizit rechtsextremistisch sind. Bei den meisten handelt es sich um Portale, die eine grenzenlose Meinungsfreiheit zulassen und um solche, die gekapert wurden und ursprünglich ganz anderen Zwecken – etwa Gaming – dienten.

Zehn dieser instrumentalisierten deutschsprachigen Plattformen haben die ISD-Forscher*innen 2019 in ihrer explorativen Studie unter die Lupe genommen und dort 375 rechtsextremistische Communities identifiziert – an der Spitze der Messenger-Dienst „Telegram“ mit 129 Kanälen und das russische soziale Netzwerk VK mit 115 Gruppen. Am besten organisiert seien die Identitären, die zwar auf wenigen Kanälen präsent seien, aber viele Follower hätten. Ebners Kollege Jan Rau, der die inhaltliche Ausrichtung der Communities analysiert hat, konstatierte als besonders „erschreckendes Ergebnis“ die antisemitischen Narrative, die mehr als die Hälfte der Posts auf dem Internetforum „4chan“ ausmachten. Alle Plattformen thematisierten Gefahren der Einwanderung und das verschwörungstheoretische Narrativ vom „Großen Austausch“ der Bevölkerung oder der „Islamisierung“.

Klare Unterscheidung zwischen Hetze und Meinungsfreiheit notwendig

Die Reichweite dieser rechtsextremistischen Narrative werde durch Webseiten verstärkt, die sich als „alternative Nachrichtenquelle“ zum Mainstream präsentierten. Um das Zusammenspiel zwischen Mainstream- und Alternativmedien zu erforschen, verglichen die Forscher*innen, wie viele Artikel jeweils zu fünf ausgewählten Themen veröffentlicht wurden. Mit Ausnahme von Konzepten Identitärer Bewegungen machten Verschwörungstheorien, „Migrantenkriminalität“, Angst vor „Islamisierung“ und Angriffe auf politische Gegner*innen bis zu sechs Prozent aller Veröffentlichungen in alternativen Medien aus, während sie im Mainstream fast nur anlässlich konkreter Ereignisse aufgegriffen wurden.

Wenn rechtsextremistischen Akteur*innen der Account auf großen Plattformen wie Facebook oder Youtube gesperrt wird, wandern die meisten ihrer Follower nicht mit in die alternativen Nischen ab. Das De-Platforming sei also durchaus erfolgreich, um die Reichweite rechtsextremistischer Hetze einzuschränken, so Rau. Dabei sei es aber wichtig, die Kriterien für die Sperrung transparent zu machen, damit die User sich nicht in ihrer Meinungsfreiheit eingeschränkt fühlen und weiter radikalisieren.

Zu Beginn der Diskussion über diese und andere Empfehlungen der Studie warnte Investigativjournalistin Lena Kampf Redaktionen davor, rechtsextremistischen Akteur*innen „auf den Leim zu gehen“. Bei Anschlägen wie in Halle könne man nicht genug berichten, müsse Strukturen und Ursachen für die Taten aufdecken. Aber auch Shitstorms wie zum Satire-Video „Umweltsau“ kämen „nicht aus dem Nichts“. Etablierte Medien hätten vorsichtiger sein müssen, denn es handelte sich nicht um Volkszorn, der sich in der Debatte entlud, sondern um eine von Rechtsextremist*innen „gezielt hervorgerufene Empörung“, die in den Medien Widerhall fand und auf die Politiker wie Ministerpräsident Laschet reagierten.

Das Diskussionspodium: Hanna Gleiß (Das Nettz), Gerd Billen (Bundesjustizministerium), Lena Kampf (Journalistin), Konstantin von Notz (MdB, Grüne), Julia Ebner (ISD) und Moderatorin Shelly Kupferberg (v.l.n.r.) Foto: Stefan Röben

Auch Justiz-Staatssekretär Gerd Billen betonte, wie wichtig es sei, die Strukturen der Netzaktivitäten Rechtsextremer aufzudecken, um die von ihnen genutzten Plattformen adäquat zu regulieren. Denn die Demokratie werde destabilisiert, wenn Rechtsradikale im Internet Treibjagden, vor allem auf Kommunalpolitiker*innen, Frauen, Angehörige von Religionsgruppen organisierten und Bürgermeister einschüchterten. Der Grünen-Netzpolitiker Konstantin von Notz verlangte in diesem Zusammenhang eine klare Unterscheidung zwischen einer solchen Hetze und dem Grundrecht auf Meinungsfreiheit. Der Diskurs sei „durchwirkt von Regeln“ – etwa im öffentlich-rechtlichen Rundfunk wie im Straßenverkehr – und wenn es die nicht gäbe, sei „die Hölle los“.

Frühwarnsystem für „Chat-basierten Terrorismus“

Diese Regeln fehlten oft auf kleineren Plattformen, auf die Rechtsextremist*innen abwandern. Das sei problematisch, so Julia Ebner, denn hier seien sie weniger unter Beobachtung, entwickelten eine Subkultur – mit einem besonderen Gruppengefühl und einer eigenen Sprache, lachten über die gleichen Scherze. Um dieses Vokabular zu dekodieren und Bedrohungen rechtzeitig zu erkennen, müsse man ein Frühwarnsystem mittels Algorithmen zur Spracherkennung installieren. Julia Kampf illustrierte die Gefahren am Beispiel von „Telegram“. Nach den Ausschreitungen in Chemnitz 2018 habe man genau rekonstruieren können, wie radikale Männer sich nach dem für einen Stadtfestbesucher tödlichen Streit „in Chatgruppen zu terroristischen Taten verabredet“ hätten. „Der Chat-basierte Terrorismus hat den Stammtisch ersetzt“, so Kampf.

Hanna Gleiß von der Koordinierungsstelle gegen Hate Speech „Das Nettz“ sagte, während staatliche Stellen „strafrechtlich Relevantes“ dekodierten, sei es Aufgabe der Zivilgesellschaft, den „Graubereich“ rechtsradikaler Hetze zu durchleuchten und den Hasskommentaren mit Gegenrede zu begegnen – wie etwa #ichbinhier, die als „Putztruppe“ auch auf großen Plattformen aktiv sind, denn die ersten fünf Kommentare entscheiden über den Verlauf einer Debatte. Um das Bewusstsein für die Radikalisierungsgefahr durch oft legale rechtsexstremistische Inhalte auf alternativen Plattformen zu schärfen, sei Medienkompetenz notwendig und müsse durch Schulungen vermittelt werden.

NetzDG sinnvoll überarbeiten

Das Netzwerkdurchsetzungs-Gesetz (NetzDG), das sich auf die Entfernung illegaler Inhalte beschränkt, solle jetzt überarbeitet werden, so Justiz-Staatssekretär Billen. Da Plattformen in Eigenregie löschen, solle möglicherweise ein Recht auf Gegendarstellung eingeräumt werden. Nach dem Anschlag in Halle 2019 wurde auch diskutiert, den Anwendungsbereich des NetzDG auszudehnen – etwa auf Gaming-Plattformen, die zu den von Rechtsextremisten gekaperten gehören.

Julia Ebner kritisierte am NetzDG, dass bei seiner Anwendung nur die Größe und nicht das Bedrohungspotential ausschlaggebend sei. So unterliegen nur große Unternehmen wie Facebook mit über zwei Millionen Nutzer*innen im Inland der Regulierung, nicht aber die kleineren Plattformen mit rechtsextremistischen Communities. Anderseits fehlten alternativen Portalbetreibenden aber auch die technischen Möglichkeiten, etwa terroristische Inhalte zu erkennen und zu löschen. Die ISD-Forscher*innen empfehlen da, in Zusammenarbeit im Mainstream-Plattformen eine Datenbank mit digitalen Fingerabdrücken zu nutzen, mit der ein erneutes Hochladen automatisch verhindert wird.

Das rechtsextremistische Online-Ökosystem kann nur durch Staat und Zivilgesellschaft gemeinsam bekämpft werden – mit Unterstützung von Wissenschaft, Wirtschaft und Medien, war sich die Runde einig. Notz: “Die Demokratie muss sich wehren!“


Alternative Wirklichkeiten

Detaillierte Einblicke in die inhaltlichen Medienstrategien Rechtsextremer gibt die von der Amadeu-Antonio-Stiftung herausgegebene Broschüre „Alternative Wirklichkeiten“.

nach oben

weiterlesen

Kein Bedarf mehr für renommiertes IRT

Die Mitteilung am 31. Juli war knapp und eindeutig: „In einer weiteren Sondersitzung der IRT-Gesellschafterversammlung konnte heute kein tragfähiges Modell für eine Fortführung des Instituts für Rundfunktechnik gefunden werden.“ Damit steht das vor 65 Jahren gegründete international anerkannte Institut für technische Grundlagenforschung voraussichtlich vor dem Aus. Betroffen sind rund 100 Beschäftigte in München-Freimann.
mehr »

Damit Publizieren keine Mutprobe wird

In Bayern kann man erste Erfolge beim Kampf gegen Hasskriminalität im Internet vorweisen. Wie Medienvertreter als Zielscheibe von Hat Speech besser zu schützen sind und was getan werden sollte, Hassposts nicht nur zu löschen, sondern als Straftat zu verfolgen, darum ging es bei einer Münchner Videokonferenz anlässlich des europaweiten Aktionstages für die Betroffenen von Hasskriminalität am 22. Juli.
mehr »

Neuer Anlauf zur Massenüberwachung

Der Bürgerrechtsverein Digitalcourage warnt vor der deutschen EU-Ratspräsidentschaft, da Deutschland auf EU-Ebene die Vorratsdatenspeicherung voranbringen wolle. Auch auf nationaler Ebene liegt wieder ein Gesetzesentwurf vor, der die Vorratsdatenspeicherung im Falle von Terrorismus und Kindesmissbrauch einführen soll. Im Gespräch mit M erklärt Friedemann Ebelt, warum das Thema Massenüberwachung trotz höchster richterlicher Urteile wieder hochaktuell ist.
mehr »

Hass im Internet konsequenter ahnden

Im Juni billigte der deutsche Bundesrat ein neues Gesetz gegen Rechtsextremismus und Hasskriminalität im Internet. Es sieht höhere Strafen für Täter*innen vor, nimmt Anbieter großer sozialer Netzwerke stärker in Pflicht und soll Akteure der Zivilgesellschaft besser schützen. Dennoch gibt es Zweifel an der Umsetzbarkeit und Kritik am mangelnden Datenschutz. Die Rechtsdurchsetzung wird als Knackpunkt gesehen.
mehr »