Antisemitismus im Netz mit KI bekämpfen

Code computer

Foto: Markus Spiske/ Unsplash

In den letzten Jahren ist in Chats, Foren und sozialen Medien ein dichtes Geflecht aus populistischen Blogs, fiesen Trollen und organisierten rechten Gruppen entstanden. Sie verbreiten antisemitische Verschwörungsphantasien und streuen gezielt Desinformationen. Nicht immer zeigt sich ihr Antisemitismus dabei offen. Zunehmend werden verklausulierte Formulierungen und Bilder verwendet. Eine Künstliche Intelligenz soll diese nun aufdecken und Redaktionen eine Hilfe sein, wenn sie Kommentarspalten moderieren

In Deutschland ist – ebenso wie in den meisten anderen europäischen Ländern – in den vergangenen Jahren ein Aufstieg rechtspopulistischer und rechtsnationalistischer Parteien festzustellen, der auch mit einem unverhohlenen Rassismus und Antisemitismus einhergeht. Dabei haben das Internet und die sozialen Medien bei der Verbreitung von Antisemitismus eine entscheidende Rolle gespielt. In einer Studie der European Union Agency for Fundamental Rights, die 2018 in zwölf Europäischen Staaten durchgeführt wurde, zeigt sich, dass 89 Prozent der Befragten Antisemitismus im Internet als ein „großes“ bis „sehr großes“ Problem betrachten. 88 Prozent nahmen eine Zunahme in den letzten fünf Jahren wahr. Auch empirische Daten belegen das. So die Langzeitstudie zu Antisemitismus im Internet von 2014 bis 2019 der Antisemitismusforscherin Monika Schwarz-Friesel von der TU Berlin. In einem Zehn-Jahres-Vergleich stellte sie in den Kommentarspalten von seriösen Onlinemedien bei jüdischen oder israelbezogenen Themen ein Anstieg von Antisemitismus von 7,5 Prozent auf 30 Prozent fest:

Ein Großteil der antisemitischen Diffamierungen werden dabei auf implizite Weise ausgedrückt – durch die Verwendung von Codes und Anspielungen auf bestimmte Verschwörungsphantasien oder die Reproduktion von Stereotypen durch Bilder. Auch Karikaturen und besonders Memes nutzen das Zusammenspiel von Text, Bild und popkultureller Referenzen, um Implizites abzubilden.

Die Alfred Landecker Stiftung, hat zusammen mit dem Zentrum für Antisemitismusforschung der Technischen Universität Berlin, dem King‘s College London und anderen Wissenschaftseinrichtungen in Europa, nun ein Projekt entwickelt, das auch impliziten Antisemitismus im Netz aufspüren soll. „Decoding Antisemitism“ heißt das Projekt, das vom Linguisten Matthias Becker von der TU Berlin geleitet wird. „Die klassische Antisemitismusforschung hat das Internet bislang zu wenig betrachtet. Wir wollen mit verschiedenen Methoden antisemitische Stereotype im Internet erfassen. Dabei berücksichtigen wir nicht nur einzelne Wörter, sondern auch Äußerungszusammenhänge, die Wortwahl und Satzstruktur, um festzustellen, wie sich das Repertoire des Antisemitismus im Internet gegenwärtig entwickelt“, sagt Becker dem Medienmagazin M.

Gelingen soll dies, indem zunächst Daten gesammelt werden. Die Computer werden dann von Diskursanalytiker*innen, Computerlinguist*innen und Historiker*innen mit den Ergebnissen einer qualitativen linguistischen und visuellen Inhaltsanalyse gefüttert und nutzen diese, um Algorithmen, also Künstliche Intelligenz (KI), zu trainieren.

Auch der Ausbruch der COVID-19-Pandemie Ende 2019 wurde weltweit genutzt, um antisemitische Inhalte über das Internet zu verbreiten. In den damit verbundenen Verschwörungsphantasien, Lügen und Gerüchten wurde Jüdinnen und Juden, wie auch dem Staat Israel, im Internet beispielsweise unterstellt, das Virus im Rahmen von Weltherrschaftsplänen als Waffe gegen die Menschheit einzusetzen. Im Januar äußerte sich der Sachsen-Anhaltinische Ministerpräsident Reiner Haseloff (CDU) in einer Fernsehsendung zu den raschen Impferfolgen Israels: „So schnell wie Israel werden wir es nicht schaffen. Aufgrund der bei uns notwendigen rechtlichen Beratung können wir das nicht im Drive-in-Verfahren machen. Wir sind immer noch ein Rechtsstaat.“ Haseloff meinte damit die rechtliche Aufklärung, die jede Person vor der Impfung erhält. Die darin implizite Andeutung über die mangelnde Rechtstaatlichkeit Israels könnte künftig auch einer KI auffallen. Doch Becker ist skeptisch: „Sobald wir uns mit israelbezogenem Antisemitismus befassen, muss man sich als Forscherteam darüber im Klaren sein, wo Kritik am Staat Israel beginnt und wo die Meinungsfreiheit aufhört.“

Im ersten Schritt, der qualitativen Inhaltsanalyse, wolle sich das Team mit allen sprachlichen und visuellen Facetten des Antisemitismus beschäftigen. „Was sich im zweiten Schritt der Analyse die KI ansehen soll, sind Fälle von Stereotyp-Codierungen. Es geht am Anfang also primär um Stereotype, die auf jüdische Menschen, aber auch auf den jüdischen Staat projiziert werden.“

Die Kombination von linguistischem Wissen, das implizite Andeutungen und antisemitische Rhetorik identifizieren kann, mit der Technologie von Algorithmen ist bisher dennoch einzigartig. Es wird dazu führen, dass Computer riesige Mengen an Daten und Bildern analysieren, die Menschen aufgrund ihrer schieren Menge nicht auswerten könnten. Ein Ziel ist es, am Ende der Pilotphase daraus ein Instrument zu haben, das Webseiten und Profile in sozialen Medien nach implizitem Antisemitismus durchsuchen kann.

„Wir wollen in unserem Projekt ein Open Source-Tool entwickeln, das die Moderation von Foren oder Kommentarspalten erleichtert und anzeigen kann, welche Themen oder Äußerungen Diskursauslöser sind“, sagt Benjamin Fischer, Programmanager der Alfred Landecker-Stiftung. Das Tool solle nicht zensieren, betont Fischer gegenüber M. Es solle vielmehr einen bestimmten Sprach- und Bildgebrauch erkennen, um festzustellen, wann und in welcher Form sich „diskursive Muster ergeben und an welchem Punkt potenziell eine Habitualisierung in einem spezifischen Web-Milieu einsetzt.“

Für die Social-Media-Manager*innen und Moderator*innen von Kommentarspalten könnte solch ein Werkzeug künftig eine wichtige Hilfe bei der Bewertung großer Datenmengen darstellen. Die Entscheidung, ob und warum ein Beitrag gelöscht werden soll, trifft aber immer noch der Mensch und nicht die Maschine.

nach oben

Weitere aktuelle Beiträge

Wie ethisch kann KI berichten?

Ein ethischer Kompass ist angesichts zunehmender Desinformation immer wichtiger – für Journalist*innen, aber auch Mediennutzende. Positivbeispiele einer wertebewussten Berichterstattung wurden jüngst zum 20. Mal mit dem Medienethik Award, kurz META, ausgezeichnet. Eine Jury aus Studierenden der Stuttgarter Hochschule der Medien HdM vergab den Preis diesmal für zwei Beiträge zum Thema „Roboter“: Ein Radiostück zu Maschinen und Empathie und einen Fernsehfilm zu KI im Krieg.
mehr »

VR-Formate im Dokumentarfilm

Mit klassischen Dokumentationen ein junges Publikum zu erreichen, das ist nicht einfach. Mit welchen Ideen es aber dennoch gelingen kann, das stand auf der Sunny Side of the Doc in La Rochelle im Fokus. Beim internationalen Treffen der Dokumentarfilmbranche ging es diesmal auch um neue Erzählformen des Genres wie Virtual Reality (VR).
mehr »

Erneute Streiks bei NDR, WDR, BR, SWR 

Voraussichtlich bis Freitag werden Streiks in mehreren ARD-Sendern zu Programmänderungen, Ausfällen und einem deutlich veränderten Erscheinungsbild von Radio- und TV-Sendungen auch im Ersten Programm führen. Der Grund für den erneuten Streik bei den großen ARD-Rundfunkanstalten ist ein bereits im siebten Monat nach Ende des vorhergehenden Tarifabschlusses immer noch andauernder Tarifkonflikt.
mehr »

krassmedial: Diskurse gestalten

Besonders auf Social-Media-Plattformen wie TikTok und Telegram verbreiten sich rechtsextreme Narrative, die zur Polarisierung der Gesellschaft beitragen. Wie Journalist*innen dem entgegen wirken und antidemokratische Diskursräume zurückgewinnen können, diskutierten und erprobten etwa 70 Teilnehmende der diesjährigen #krassmedial-Sommerakademie von ver.di am Wochenende in Berlin-Wannsee.
mehr »