Hetzern im Netz zeigen wer hier das Sagen hat

Bild: Pixabay

Ob es um Geflüchtete geht, um Israel oder die AfD – bestimmte Reizthemen rufen im Netz regelmäßig Hetze, Beleidigungen und Anpöbeleien hervor. Sollen Online-Redaktionen auf solche Hasskommentare reagieren? Eine aktuelle Studie gibt jetzt Empfehlungen, wie sich die Hetze im Netz steuern und eindämmen lässt. Finanziert wurde die Untersuchung von der Düsseldorfer Landesanstalt für Medien (LfM) und von Google Deutschland.

Autoren der Studie sind die beiden Kommunikationswissenschaftler Leif Kramp von der Uni Bremen und Stephan Weichert von der Hamburg Media School. Grundlage der Untersuchung ist die Analyse von 24 Online-Diskussionen zu 16 journalistischen Beiträgen. Der Themenkanon reicht von der Sexismus-Debatte über die Rolle von Muslimen auf dem deutschen Arbeitsmarkt bis hin zu eher unpolitischen Themen á la „Was ist Ihre Lieblingsband aus der DDR?“ Dabei kooperierten die Wissenschaftler mit den Online-Redaktionen von tagesschau.de, RP Online, Deutschlandfunk Kultur und RTL aktuell. Eine von ihnen entwickelte Typologie der Diskursverläufe zeigt anschaulich, wie die Debatten im Netz in der Regel verlaufen. Dabei konzentrierte sich die Analyse auf die Nutzerdiskurse und Kommentare bei den Facebook-Auftritten der vier kooperierenden Medien. Nur bei RP Online und tagesschau.de wurden zusätzlich auch die Kommentare der redaktionseigenen Websites einbezogen.

Zu wenig redaktionelle Gegenwehr

Die „hate speech“ im Netz schwillt an, aber eine Gegenwehr findet offenbar kaum statt. „Es gibt eine Kommentarmüdigkeit in den Redaktionen“, beobachtet Stephan Weichert. Man habe „kaum Zeit und schon gar keine Ressourcen, dagegen anzugehen und mit den Nutzern in einen rationalen Dialog zu treten“. Es entstehe der Eindruck, die Journalisten hätten bereits aufgegeben. Die anfängliche Euphorie über die Demokratisierungsmöglichkeiten des Netzes sei einer starken Desillusionierung gewichen. Leitfrage bei der Untersuchung sei gewesen: „Wie kann man zugunsten der Redaktionen, aber auch zugunsten der gesellschaftlichen Debattenkultur diesen Austausch verbessern, die dysfunktionale Debattenkultur entstören?“

Einige der Kernergebnisse der Untersuchung: Es findet kaum noch redaktionelle Moderation im Sinne aktiver Diskussionsbeiträge statt. Das führe dazu, dass Redaktionen nur wenig Einfluss auf den Verlauf öffentlicher Diskurse über ihre Nachrichtenangebote ausüben. Dabei gilt positiv im Umkehrschluss: Je aktiver eine Redaktion in solche Diskurse eingreife und mit den Nutzern in einen Dialog trete, desto positiver wirke sich dies „auf die Positionierung der Hauptkommentare beispielsweise bei Facebook“ aus. Auf diese Weise könne die Redaktion „ihren eigenen Beiträgen zu mehr Aufmerksamkeit verhelfen“. Weniger schön sei demgegenüber, „dass sich nach wie vor die Vorwürfe von ‚Lügenpresse‘ und ‚Propaganda‘ durch fast alle Diskussionen ziehen“. Völlig unabhängig vom Thema würden Nutzer den Medien „bewusste Manipulation und interessengeleitete Information“ vorwerfen. Nur ein Drittel der User-Kommentare habe überhaupt einen Bezug zum verhandelten Thema, der Rest bestehe aus Verunglimpfungen und Hetze. Verantwortlich dafür seien nur einige „wenige einflussreiche, dafür jedoch durchweg negativ kommentierende Nutzerinnen und Nutzer. Dieses Troll-Verhalten deute auf Wiederholungstäter_innen, deren Motive sich „zwischen Geltungsdrang und missionarischem Eifer“ bewegten.

Die Debattenkultur im Netz reparieren

Die Redaktionen haben derzeit „mehr mit der Bewältigung als mit der Gestaltung des Dialogs“ zu tun, konstatiert Ko-Autor Leif Kramp unter Hinweis auf die knappen Ressourcen viele Redaktionen. Manche Redaktionen seien schlicht überfordert, angemessen auf die „hemmungslose Artikulation“ vieler Nutzer zur reagieren. Oft herrsche Zweifel, ob eine vernünftige Debatte mit dem jeweiligen Gegenüber überhaupt möglich sei. Darüber hinaus sei es für die Social-Media-Verantwortlichen schwer genug, ihren eigenen Kolleg_innen gegenüber die Notwendigkeit zu vermitteln, sich in diesen Dialog zu begeben, die Diskussion zum eigenen Beitrag mitzuverfolgen. Eine solche Moderation erfordere aber einen personellen Aufwand, den sich manche Verlage nicht mehr leisteten.

Sollen also Moderator_innen die Hassrede löschen oder mit den Hater_innen diskutieren? Sollen Trolle gesperrt oder sogar strafrechtlich verfolgt werden? Mit einem 10-Punkte-Plan liefern die Forscher Vorschläge, wie die Debattenkultur im Netz repariert werden könnte. Der wichtigste Punkt, laut Weichert: Über entschiedenes Moderieren der Kommentare oder der Social-Media-Beiträge im Netz „klarmachen, wer hier das Sagen hat“. Es gelte, die konstruktiv agierenden Nutzer zu stärken. „Ein Loben und Belohnen lohnt sich auch für die Redaktion.“ Auch Aktionen gegen Hassrede wie „Sage mir ins Gesicht“ von tagesschau.de könnten manchmal zur Zivilisierung der Umgangsformen beitragen. Gleiches gelte für „konstruktiven Journalismus“, also die regelmäßige Veröffentlichung lösungsorientierter Kommentarbeiträge. Das Aufgreifen von Alltagsperspektiven, die den Nutzer betreffen, sei ein positives Gegengewicht zum „immer nur Kriege, Krisen, Katastrophen“.

nach oben

Weitere aktuelle Beiträge

Schon entdeckt? Wie Rechte reden

Jede Woche die Analyse eines rechten Zitats – ob aus dem Bundestag oder beim Weihnachtsessen mit der Familie. Das bietet der Newsletter „Wie Rechte reden“ von Maria Timtschenko und Johannes Giesler. Denn: „Die Neue Rechte ist da“, wie die Autor*innen in der Ankündigung ihres Newsletters schreiben: „Sie ist auf der WG-Party bei deinen Freund:innen eingeladen. Sie steht neben dir in der Schlange für ‚Einmal Döner, bitte‘." Und sie verschiebt ihren menschenfeindlichen und autoritären Diskurs in die gesellschaftliche Öffentlichkeit, in Kommentarspalten, eigenen Medien oder Gruppenchats.
mehr »

RSF: Exilmedien als Quelle

Sie decken Korruption und Unterdrückung auf, wo ausländische Korrespondent*innen keinen Zugang haben: Exilmedien sorgen dafür, dass zuverlässige Informationen aus geschlossenen Diktaturen weiterhin verfügbar bleiben. In Kooperation mit dem JX Fund stellt Reporter ohne Grenzen (RSF) dar, wie wichtig Exiljournalist*innen in der internationalen Berichterstattung sind.
mehr »

Urheberrecht: ChatGPT-Urteil ist Anfang

Ein Präzedenzfall ist das Urteil im Rechtsstreit zwischen der Verwertungsgesellschaft Gema und dem KI-Unternehmen OpenAI vom 11. November 2025 sicherlich. Aber abgesehen von einem zu erwartenden längeren Instanzenweg stellt sich auch die Frage, wie sich die gesamte Kreativwirtschaft gegen die ungefragte Nutzung von geistigem Eigentum wehren kann.
mehr »

Initiative: KI besser nutzbar machen

Der Dominanz der globalen Big-Tech-Konzerne etwas entgegensetzen – das ist das Ziel einer Initiative, bei der hierzulande zum ersten Mal öffentlich-rechtliche und private Medienanbieter zusammenarbeiten. Sie wollen mit weiteren Partnern, vor allem aus dem Forschungsbereich, ein dezentrales, KI-integriertes Datenökosystem entwickeln. Dadurch soll die digitale Souveränität und Wettbewerbsfähigkeit des deutschen Medienstandorts gestärkt werden.
mehr »