Antisemitismus im Netz mit KI bekämpfen

Code computer

Foto: Markus Spiske/ Unsplash

In den letzten Jahren ist in Chats, Foren und sozialen Medien ein dichtes Geflecht aus populistischen Blogs, fiesen Trollen und organisierten rechten Gruppen entstanden. Sie verbreiten antisemitische Verschwörungsphantasien und streuen gezielt Desinformationen. Nicht immer zeigt sich ihr Antisemitismus dabei offen. Zunehmend werden verklausulierte Formulierungen und Bilder verwendet. Eine Künstliche Intelligenz soll diese nun aufdecken und Redaktionen eine Hilfe sein, wenn sie Kommentarspalten moderieren

In Deutschland ist – ebenso wie in den meisten anderen europäischen Ländern – in den vergangenen Jahren ein Aufstieg rechtspopulistischer und rechtsnationalistischer Parteien festzustellen, der auch mit einem unverhohlenen Rassismus und Antisemitismus einhergeht. Dabei haben das Internet und die sozialen Medien bei der Verbreitung von Antisemitismus eine entscheidende Rolle gespielt. In einer Studie der European Union Agency for Fundamental Rights, die 2018 in zwölf Europäischen Staaten durchgeführt wurde, zeigt sich, dass 89 Prozent der Befragten Antisemitismus im Internet als ein „großes“ bis „sehr großes“ Problem betrachten. 88 Prozent nahmen eine Zunahme in den letzten fünf Jahren wahr. Auch empirische Daten belegen das. So die Langzeitstudie zu Antisemitismus im Internet von 2014 bis 2019 der Antisemitismusforscherin Monika Schwarz-Friesel von der TU Berlin. In einem Zehn-Jahres-Vergleich stellte sie in den Kommentarspalten von seriösen Onlinemedien bei jüdischen oder israelbezogenen Themen ein Anstieg von Antisemitismus von 7,5 Prozent auf 30 Prozent fest:

Ein Großteil der antisemitischen Diffamierungen werden dabei auf implizite Weise ausgedrückt – durch die Verwendung von Codes und Anspielungen auf bestimmte Verschwörungsphantasien oder die Reproduktion von Stereotypen durch Bilder. Auch Karikaturen und besonders Memes nutzen das Zusammenspiel von Text, Bild und popkultureller Referenzen, um Implizites abzubilden.

Die Alfred Landecker Stiftung, hat zusammen mit dem Zentrum für Antisemitismusforschung der Technischen Universität Berlin, dem King‘s College London und anderen Wissenschaftseinrichtungen in Europa, nun ein Projekt entwickelt, das auch impliziten Antisemitismus im Netz aufspüren soll. „Decoding Antisemitism“ heißt das Projekt, das vom Linguisten Matthias Becker von der TU Berlin geleitet wird. „Die klassische Antisemitismusforschung hat das Internet bislang zu wenig betrachtet. Wir wollen mit verschiedenen Methoden antisemitische Stereotype im Internet erfassen. Dabei berücksichtigen wir nicht nur einzelne Wörter, sondern auch Äußerungszusammenhänge, die Wortwahl und Satzstruktur, um festzustellen, wie sich das Repertoire des Antisemitismus im Internet gegenwärtig entwickelt“, sagt Becker dem Medienmagazin M.

Gelingen soll dies, indem zunächst Daten gesammelt werden. Die Computer werden dann von Diskursanalytiker*innen, Computerlinguist*innen und Historiker*innen mit den Ergebnissen einer qualitativen linguistischen und visuellen Inhaltsanalyse gefüttert und nutzen diese, um Algorithmen, also Künstliche Intelligenz (KI), zu trainieren.

Auch der Ausbruch der COVID-19-Pandemie Ende 2019 wurde weltweit genutzt, um antisemitische Inhalte über das Internet zu verbreiten. In den damit verbundenen Verschwörungsphantasien, Lügen und Gerüchten wurde Jüdinnen und Juden, wie auch dem Staat Israel, im Internet beispielsweise unterstellt, das Virus im Rahmen von Weltherrschaftsplänen als Waffe gegen die Menschheit einzusetzen. Im Januar äußerte sich der Sachsen-Anhaltinische Ministerpräsident Reiner Haseloff (CDU) in einer Fernsehsendung zu den raschen Impferfolgen Israels: „So schnell wie Israel werden wir es nicht schaffen. Aufgrund der bei uns notwendigen rechtlichen Beratung können wir das nicht im Drive-in-Verfahren machen. Wir sind immer noch ein Rechtsstaat.“ Haseloff meinte damit die rechtliche Aufklärung, die jede Person vor der Impfung erhält. Die darin implizite Andeutung über die mangelnde Rechtstaatlichkeit Israels könnte künftig auch einer KI auffallen. Doch Becker ist skeptisch: „Sobald wir uns mit israelbezogenem Antisemitismus befassen, muss man sich als Forscherteam darüber im Klaren sein, wo Kritik am Staat Israel beginnt und wo die Meinungsfreiheit aufhört.“

Im ersten Schritt, der qualitativen Inhaltsanalyse, wolle sich das Team mit allen sprachlichen und visuellen Facetten des Antisemitismus beschäftigen. „Was sich im zweiten Schritt der Analyse die KI ansehen soll, sind Fälle von Stereotyp-Codierungen. Es geht am Anfang also primär um Stereotype, die auf jüdische Menschen, aber auch auf den jüdischen Staat projiziert werden.“

Die Kombination von linguistischem Wissen, das implizite Andeutungen und antisemitische Rhetorik identifizieren kann, mit der Technologie von Algorithmen ist bisher dennoch einzigartig. Es wird dazu führen, dass Computer riesige Mengen an Daten und Bildern analysieren, die Menschen aufgrund ihrer schieren Menge nicht auswerten könnten. Ein Ziel ist es, am Ende der Pilotphase daraus ein Instrument zu haben, das Webseiten und Profile in sozialen Medien nach implizitem Antisemitismus durchsuchen kann.

„Wir wollen in unserem Projekt ein Open Source-Tool entwickeln, das die Moderation von Foren oder Kommentarspalten erleichtert und anzeigen kann, welche Themen oder Äußerungen Diskursauslöser sind“, sagt Benjamin Fischer, Programmanager der Alfred Landecker-Stiftung. Das Tool solle nicht zensieren, betont Fischer gegenüber M. Es solle vielmehr einen bestimmten Sprach- und Bildgebrauch erkennen, um festzustellen, wann und in welcher Form sich „diskursive Muster ergeben und an welchem Punkt potenziell eine Habitualisierung in einem spezifischen Web-Milieu einsetzt.“

Für die Social-Media-Manager*innen und Moderator*innen von Kommentarspalten könnte solch ein Werkzeug künftig eine wichtige Hilfe bei der Bewertung großer Datenmengen darstellen. Die Entscheidung, ob und warum ein Beitrag gelöscht werden soll, trifft aber immer noch der Mensch und nicht die Maschine.

nach oben

Weitere aktuelle Beiträge

Spanien: Als Terrorist beschuldigt

Der katalanische Investigativjournalist Jesús Rodríguez hat Spanien verlassen, um ins Exil in die Schweiz zu gehen. Ihm wird von Ermittlungsrichter Manuel García-Castellón die Unterstützung terroristischer Akte vorgeworfen. Die Schweiz sieht im Vorgehen der spanischen Justiz gegen den Katalanen einen „politischen Charakter“.
mehr »

Von Erbsensuppe und neuen Geschichten

„Vielfalt schützen, Freiheit sichern – 40 Jahre duale Medienordnung im föderalen Deutschland“. Dies war das Thema des Symposiums, das am 23.  April in der Berlin-Brandenburgischen Akademie der Wissenschaften stattfand. Ausrichter war die Direktorenkonferenz der Landesmedienanstalten (DLM).  Teilnehmer waren Verantwortliche aus Medienpolitik und -wissenschaft, Rundfunkregulierung und Medienunternehmen.
mehr »

Preis für behinderte Medienschaffende

Zum zweiten Mal schreibt in diesem Jahr die gewerkschaftsnahe Otto Brenner Stiftung zwei Preise und Stipendien für Journalist*innen mit Behinderung aus. Damit soll „ein klares Signal für die Förderung von Diversität als unverzichtbaren Wert in unserer demokratischen Gesellschaft“ gesetzt werden, sagt Jupp Legrand, Geschäftsführer der Stiftung. 
mehr »

KI darf keine KI-Texte nutzen

Die Diskussion über Möglichkeiten und Grenzen der KI im eigenen Metier wird Journalist*innen noch lange weiter beschäftigen. Bei der jüngsten ver.di-KI-Online-Veranstaltung ging es um den Anspruch an Gute Arbeit und Qualität. ver.di hat zum Einsatz von KI Positionen und ethische Leitlinien entwickelt. Bettina Hesse, Referentin für Medienpolitik, stellte das Papier vor, das die Bundesfachgruppe Medien, Journalismus und Film zum Einsatz von generativer Künstlicher Intelligenz im Journalismus erarbeitet hat.
mehr »