Antisemitismus im Netz mit KI bekämpfen

Code computer

Foto: Markus Spiske/ Unsplash

In den letzten Jahren ist in Chats, Foren und sozialen Medien ein dichtes Geflecht aus populistischen Blogs, fiesen Trollen und organisierten rechten Gruppen entstanden. Sie verbreiten antisemitische Verschwörungsphantasien und streuen gezielt Desinformationen. Nicht immer zeigt sich ihr Antisemitismus dabei offen. Zunehmend werden verklausulierte Formulierungen und Bilder verwendet. Eine Künstliche Intelligenz soll diese nun aufdecken und Redaktionen eine Hilfe sein, wenn sie Kommentarspalten moderieren

In Deutschland ist – ebenso wie in den meisten anderen europäischen Ländern – in den vergangenen Jahren ein Aufstieg rechtspopulistischer und rechtsnationalistischer Parteien festzustellen, der auch mit einem unverhohlenen Rassismus und Antisemitismus einhergeht. Dabei haben das Internet und die sozialen Medien bei der Verbreitung von Antisemitismus eine entscheidende Rolle gespielt. In einer Studie der European Union Agency for Fundamental Rights, die 2018 in zwölf Europäischen Staaten durchgeführt wurde, zeigt sich, dass 89 Prozent der Befragten Antisemitismus im Internet als ein „großes“ bis „sehr großes“ Problem betrachten. 88 Prozent nahmen eine Zunahme in den letzten fünf Jahren wahr. Auch empirische Daten belegen das. So die Langzeitstudie zu Antisemitismus im Internet von 2014 bis 2019 der Antisemitismusforscherin Monika Schwarz-Friesel von der TU Berlin. In einem Zehn-Jahres-Vergleich stellte sie in den Kommentarspalten von seriösen Onlinemedien bei jüdischen oder israelbezogenen Themen ein Anstieg von Antisemitismus von 7,5 Prozent auf 30 Prozent fest:

Ein Großteil der antisemitischen Diffamierungen werden dabei auf implizite Weise ausgedrückt – durch die Verwendung von Codes und Anspielungen auf bestimmte Verschwörungsphantasien oder die Reproduktion von Stereotypen durch Bilder. Auch Karikaturen und besonders Memes nutzen das Zusammenspiel von Text, Bild und popkultureller Referenzen, um Implizites abzubilden.

Die Alfred Landecker Stiftung, hat zusammen mit dem Zentrum für Antisemitismusforschung der Technischen Universität Berlin, dem King‘s College London und anderen Wissenschaftseinrichtungen in Europa, nun ein Projekt entwickelt, das auch impliziten Antisemitismus im Netz aufspüren soll. „Decoding Antisemitism“ heißt das Projekt, das vom Linguisten Matthias Becker von der TU Berlin geleitet wird. „Die klassische Antisemitismusforschung hat das Internet bislang zu wenig betrachtet. Wir wollen mit verschiedenen Methoden antisemitische Stereotype im Internet erfassen. Dabei berücksichtigen wir nicht nur einzelne Wörter, sondern auch Äußerungszusammenhänge, die Wortwahl und Satzstruktur, um festzustellen, wie sich das Repertoire des Antisemitismus im Internet gegenwärtig entwickelt“, sagt Becker dem Medienmagazin M.

Gelingen soll dies, indem zunächst Daten gesammelt werden. Die Computer werden dann von Diskursanalytiker*innen, Computerlinguist*innen und Historiker*innen mit den Ergebnissen einer qualitativen linguistischen und visuellen Inhaltsanalyse gefüttert und nutzen diese, um Algorithmen, also Künstliche Intelligenz (KI), zu trainieren.

Auch der Ausbruch der COVID-19-Pandemie Ende 2019 wurde weltweit genutzt, um antisemitische Inhalte über das Internet zu verbreiten. In den damit verbundenen Verschwörungsphantasien, Lügen und Gerüchten wurde Jüdinnen und Juden, wie auch dem Staat Israel, im Internet beispielsweise unterstellt, das Virus im Rahmen von Weltherrschaftsplänen als Waffe gegen die Menschheit einzusetzen. Im Januar äußerte sich der Sachsen-Anhaltinische Ministerpräsident Reiner Haseloff (CDU) in einer Fernsehsendung zu den raschen Impferfolgen Israels: „So schnell wie Israel werden wir es nicht schaffen. Aufgrund der bei uns notwendigen rechtlichen Beratung können wir das nicht im Drive-in-Verfahren machen. Wir sind immer noch ein Rechtsstaat.“ Haseloff meinte damit die rechtliche Aufklärung, die jede Person vor der Impfung erhält. Die darin implizite Andeutung über die mangelnde Rechtstaatlichkeit Israels könnte künftig auch einer KI auffallen. Doch Becker ist skeptisch: „Sobald wir uns mit israelbezogenem Antisemitismus befassen, muss man sich als Forscherteam darüber im Klaren sein, wo Kritik am Staat Israel beginnt und wo die Meinungsfreiheit aufhört.“

Im ersten Schritt, der qualitativen Inhaltsanalyse, wolle sich das Team mit allen sprachlichen und visuellen Facetten des Antisemitismus beschäftigen. „Was sich im zweiten Schritt der Analyse die KI ansehen soll, sind Fälle von Stereotyp-Codierungen. Es geht am Anfang also primär um Stereotype, die auf jüdische Menschen, aber auch auf den jüdischen Staat projiziert werden.“

Die Kombination von linguistischem Wissen, das implizite Andeutungen und antisemitische Rhetorik identifizieren kann, mit der Technologie von Algorithmen ist bisher dennoch einzigartig. Es wird dazu führen, dass Computer riesige Mengen an Daten und Bildern analysieren, die Menschen aufgrund ihrer schieren Menge nicht auswerten könnten. Ein Ziel ist es, am Ende der Pilotphase daraus ein Instrument zu haben, das Webseiten und Profile in sozialen Medien nach implizitem Antisemitismus durchsuchen kann.

„Wir wollen in unserem Projekt ein Open Source-Tool entwickeln, das die Moderation von Foren oder Kommentarspalten erleichtert und anzeigen kann, welche Themen oder Äußerungen Diskursauslöser sind“, sagt Benjamin Fischer, Programmanager der Alfred Landecker-Stiftung. Das Tool solle nicht zensieren, betont Fischer gegenüber M. Es solle vielmehr einen bestimmten Sprach- und Bildgebrauch erkennen, um festzustellen, wann und in welcher Form sich „diskursive Muster ergeben und an welchem Punkt potenziell eine Habitualisierung in einem spezifischen Web-Milieu einsetzt.“

Für die Social-Media-Manager*innen und Moderator*innen von Kommentarspalten könnte solch ein Werkzeug künftig eine wichtige Hilfe bei der Bewertung großer Datenmengen darstellen. Die Entscheidung, ob und warum ein Beitrag gelöscht werden soll, trifft aber immer noch der Mensch und nicht die Maschine.

nach oben

Weitere aktuelle Beiträge

Nicaraguas bedrohte Medien

Die Diktatur des nicaraguanischen Präsidentenpaars Daniel Ortega und Rocio Murillo hat in den letzten Jahren immer mehr Journalist*innen ins Exil getrieben. Unter erschwerten Bedingungen berichten Menschen wie Lucía Pineda vom Nachrichtenkanal "100% Noticias" oder Wendy Quintero nun aus dem Ausland. Für diese Arbeit nehmen sie stellvertretend für viele andere am 26. November 2024 den Menschenrechtspreis der Friedrich-Ebert-Stiftung entgegen.
mehr »

Österreich: Gefahr für die Pressefreiheit

In Österreich ist die extrem rechte FPÖ bei den Nationalratswahlen stärkste Kraft geworden. Noch ist keine zukünftige Koalition etabliert. Luis Paulitsch erklärt im Interview, welche Entwicklungen in der österreichischen Medienlandschaft zu erwarten sind, sollten die FPÖ und ihr Spitzenkandidat Herbert Kickl an der Regierung beteiligt werden. Paulitsch ist Jurist, Zeithistoriker und Medienethiker. Von 2019 bis 2024 war er Referent des Österreichischen Presserats, dem Selbstkontrollorgan der österreichischen Printmedien;  seit 2024 bei der Datum Stiftung für Journalismus und Demokratie.
mehr »

KI beinflusst Vielfalt in den Medien

Künstliche Intelligenz kann journalistische Texte in verschiedene Sprachen übersetzen und damit viel mehr Nutzer*innen ansprechen. Gleichzeitig kann sie aber auch Stereotype, die in diesen Texten enthalten sind, verfestigen. Gefahren und Chancen von KI-Anwendungen im Journalismus standen im Fokus der diesjährigen NxMedienkonferenz der Neuen deutschen Medienmacher*innen (NdM), die sich für mehr Vielfalt in den Medien einsetzen.
mehr »

ARD & ZDF legen Verfassungsbeschwerde ein

Nachdem die Ministerpräsident*innen auf ihrer Jahreskonferenz Ende Oktober keinen Beschluss zur Anpassung des Rundfunkbeitrags ab 2025 fassten, haben heute ARD und ZDF Beschwerde beim Bundesverfassungsgericht in Karlsruhe eingelegt. Die Dienstleistungsgewerkschaft ver.di begrüßt die Initiative.
mehr »