Antisemitismus im Netz mit KI bekämpfen

Code computer

Foto: Markus Spiske/ Unsplash

In den letzten Jahren ist in Chats, Foren und sozialen Medien ein dichtes Geflecht aus populistischen Blogs, fiesen Trollen und organisierten rechten Gruppen entstanden. Sie verbreiten antisemitische Verschwörungsphantasien und streuen gezielt Desinformationen. Nicht immer zeigt sich ihr Antisemitismus dabei offen. Zunehmend werden verklausulierte Formulierungen und Bilder verwendet. Eine Künstliche Intelligenz soll diese nun aufdecken und Redaktionen eine Hilfe sein, wenn sie Kommentarspalten moderieren

In Deutschland ist – ebenso wie in den meisten anderen europäischen Ländern – in den vergangenen Jahren ein Aufstieg rechtspopulistischer und rechtsnationalistischer Parteien festzustellen, der auch mit einem unverhohlenen Rassismus und Antisemitismus einhergeht. Dabei haben das Internet und die sozialen Medien bei der Verbreitung von Antisemitismus eine entscheidende Rolle gespielt. In einer Studie der European Union Agency for Fundamental Rights, die 2018 in zwölf Europäischen Staaten durchgeführt wurde, zeigt sich, dass 89 Prozent der Befragten Antisemitismus im Internet als ein „großes“ bis „sehr großes“ Problem betrachten. 88 Prozent nahmen eine Zunahme in den letzten fünf Jahren wahr. Auch empirische Daten belegen das. So die Langzeitstudie zu Antisemitismus im Internet von 2014 bis 2019 der Antisemitismusforscherin Monika Schwarz-Friesel von der TU Berlin. In einem Zehn-Jahres-Vergleich stellte sie in den Kommentarspalten von seriösen Onlinemedien bei jüdischen oder israelbezogenen Themen ein Anstieg von Antisemitismus von 7,5 Prozent auf 30 Prozent fest:

Ein Großteil der antisemitischen Diffamierungen werden dabei auf implizite Weise ausgedrückt – durch die Verwendung von Codes und Anspielungen auf bestimmte Verschwörungsphantasien oder die Reproduktion von Stereotypen durch Bilder. Auch Karikaturen und besonders Memes nutzen das Zusammenspiel von Text, Bild und popkultureller Referenzen, um Implizites abzubilden.

Die Alfred Landecker Stiftung, hat zusammen mit dem Zentrum für Antisemitismusforschung der Technischen Universität Berlin, dem King‘s College London und anderen Wissenschaftseinrichtungen in Europa, nun ein Projekt entwickelt, das auch impliziten Antisemitismus im Netz aufspüren soll. „Decoding Antisemitism“ heißt das Projekt, das vom Linguisten Matthias Becker von der TU Berlin geleitet wird. „Die klassische Antisemitismusforschung hat das Internet bislang zu wenig betrachtet. Wir wollen mit verschiedenen Methoden antisemitische Stereotype im Internet erfassen. Dabei berücksichtigen wir nicht nur einzelne Wörter, sondern auch Äußerungszusammenhänge, die Wortwahl und Satzstruktur, um festzustellen, wie sich das Repertoire des Antisemitismus im Internet gegenwärtig entwickelt“, sagt Becker dem Medienmagazin M.

Gelingen soll dies, indem zunächst Daten gesammelt werden. Die Computer werden dann von Diskursanalytiker*innen, Computerlinguist*innen und Historiker*innen mit den Ergebnissen einer qualitativen linguistischen und visuellen Inhaltsanalyse gefüttert und nutzen diese, um Algorithmen, also Künstliche Intelligenz (KI), zu trainieren.

Auch der Ausbruch der COVID-19-Pandemie Ende 2019 wurde weltweit genutzt, um antisemitische Inhalte über das Internet zu verbreiten. In den damit verbundenen Verschwörungsphantasien, Lügen und Gerüchten wurde Jüdinnen und Juden, wie auch dem Staat Israel, im Internet beispielsweise unterstellt, das Virus im Rahmen von Weltherrschaftsplänen als Waffe gegen die Menschheit einzusetzen. Im Januar äußerte sich der Sachsen-Anhaltinische Ministerpräsident Reiner Haseloff (CDU) in einer Fernsehsendung zu den raschen Impferfolgen Israels: „So schnell wie Israel werden wir es nicht schaffen. Aufgrund der bei uns notwendigen rechtlichen Beratung können wir das nicht im Drive-in-Verfahren machen. Wir sind immer noch ein Rechtsstaat.“ Haseloff meinte damit die rechtliche Aufklärung, die jede Person vor der Impfung erhält. Die darin implizite Andeutung über die mangelnde Rechtstaatlichkeit Israels könnte künftig auch einer KI auffallen. Doch Becker ist skeptisch: „Sobald wir uns mit israelbezogenem Antisemitismus befassen, muss man sich als Forscherteam darüber im Klaren sein, wo Kritik am Staat Israel beginnt und wo die Meinungsfreiheit aufhört.“

Im ersten Schritt, der qualitativen Inhaltsanalyse, wolle sich das Team mit allen sprachlichen und visuellen Facetten des Antisemitismus beschäftigen. „Was sich im zweiten Schritt der Analyse die KI ansehen soll, sind Fälle von Stereotyp-Codierungen. Es geht am Anfang also primär um Stereotype, die auf jüdische Menschen, aber auch auf den jüdischen Staat projiziert werden.“

Die Kombination von linguistischem Wissen, das implizite Andeutungen und antisemitische Rhetorik identifizieren kann, mit der Technologie von Algorithmen ist bisher dennoch einzigartig. Es wird dazu führen, dass Computer riesige Mengen an Daten und Bildern analysieren, die Menschen aufgrund ihrer schieren Menge nicht auswerten könnten. Ein Ziel ist es, am Ende der Pilotphase daraus ein Instrument zu haben, das Webseiten und Profile in sozialen Medien nach implizitem Antisemitismus durchsuchen kann.

„Wir wollen in unserem Projekt ein Open Source-Tool entwickeln, das die Moderation von Foren oder Kommentarspalten erleichtert und anzeigen kann, welche Themen oder Äußerungen Diskursauslöser sind“, sagt Benjamin Fischer, Programmanager der Alfred Landecker-Stiftung. Das Tool solle nicht zensieren, betont Fischer gegenüber M. Es solle vielmehr einen bestimmten Sprach- und Bildgebrauch erkennen, um festzustellen, wann und in welcher Form sich „diskursive Muster ergeben und an welchem Punkt potenziell eine Habitualisierung in einem spezifischen Web-Milieu einsetzt.“

Für die Social-Media-Manager*innen und Moderator*innen von Kommentarspalten könnte solch ein Werkzeug künftig eine wichtige Hilfe bei der Bewertung großer Datenmengen darstellen. Die Entscheidung, ob und warum ein Beitrag gelöscht werden soll, trifft aber immer noch der Mensch und nicht die Maschine.

nach oben

weiterlesen

Es geht um Wahrheit, Transparenz, Integrität

Die Journalism Trust Initiative (JTI) ist eine Plattform, die vertrauenswürdige Nachrichtenquellen identifizieren und stärken will. Unter der Regie von Reporter ohne Grenzen (RSF) soll ein Beitrag gegen Hass, Propaganda und Fake News geleistet werden. Ende Mai wurde die Webseite freigeschaltet. Am 29. Juli diskutierten Projektteilnehmer verschiedener internationaler Medien zum Thema „Glaubwürdiger Journalismus als Gegengift gegen Desinformation“ über Funktionsweise und Aufgaben der Plattform.
mehr »

Kunst darf an die Grenzen gehen

In einer am 26. Juli 2021 veröffentlichten Stellungnahme für das Bundesverfassungsgericht hat die Vereinte Dienstleistungsgewerkschaft einen als "Schmähgedicht" überschriebenen Vortrag von Jan Böhmermann 2016 im ZDF als "von der Kunstfreiheit gedeckt" bezeichnet. "Eine demokratische Gesellschaft muss aushalten können, dass Künstlerinnen oder Künstler in künstlerischer Form an Grenzen gehen, bis es schmerzt", erklärte ver.di-Bundesvorstandsmitglied Christoph Schmitz.
mehr »

Schnelle und konkrete Hilfe für Kollegen

Journalisten helfen Journalisten e. V. setzt sich für in Not geratene, an ihrer Arbeit gehinderte, misshandelte Kolleg*innen und die Hinterbliebenen getöteter Journalist*innen ein. Der gemeinnützige Verein wurde 1993 von Christiane Schlötzer-Scotland gegründet, deren Ehemann Egon Scotland während seiner Recherchen für die „Süddeutsche Zeitung“ im damaligen kroatischen Krisengebiet von einem Heckenschützen am 26. Juli 1991 ermordet wurde. M sprach mit dem Geschäftsführer des Vereins Carl Wilhelm Macke.
mehr »

Dreh- und Angelpunkt ist die Staatsferne

Nach dem Scheitern der Bundes-Presseförderung: Wie lassen sich künftig Medienvielfalt erhalten und Qualitätsjournalismus unterstützen? Ein Gutachten von Wissenschaftlern der Universität Mainz liefert interessante Vorschläge zur Hilfe für die Medienbranche. Dreh- und Angelpunkt der Überlegungen ist dabei die gebotene Staatsferne.
mehr »