Antisemitismus im Netz mit KI bekämpfen

Code computer

Foto: Markus Spiske/ Unsplash

In den letzten Jahren ist in Chats, Foren und sozialen Medien ein dichtes Geflecht aus populistischen Blogs, fiesen Trollen und organisierten rechten Gruppen entstanden. Sie verbreiten antisemitische Verschwörungsphantasien und streuen gezielt Desinformationen. Nicht immer zeigt sich ihr Antisemitismus dabei offen. Zunehmend werden verklausulierte Formulierungen und Bilder verwendet. Eine Künstliche Intelligenz soll diese nun aufdecken und Redaktionen eine Hilfe sein, wenn sie Kommentarspalten moderieren

In Deutschland ist – ebenso wie in den meisten anderen europäischen Ländern – in den vergangenen Jahren ein Aufstieg rechtspopulistischer und rechtsnationalistischer Parteien festzustellen, der auch mit einem unverhohlenen Rassismus und Antisemitismus einhergeht. Dabei haben das Internet und die sozialen Medien bei der Verbreitung von Antisemitismus eine entscheidende Rolle gespielt. In einer Studie der European Union Agency for Fundamental Rights, die 2018 in zwölf Europäischen Staaten durchgeführt wurde, zeigt sich, dass 89 Prozent der Befragten Antisemitismus im Internet als ein „großes“ bis „sehr großes“ Problem betrachten. 88 Prozent nahmen eine Zunahme in den letzten fünf Jahren wahr. Auch empirische Daten belegen das. So die Langzeitstudie zu Antisemitismus im Internet von 2014 bis 2019 der Antisemitismusforscherin Monika Schwarz-Friesel von der TU Berlin. In einem Zehn-Jahres-Vergleich stellte sie in den Kommentarspalten von seriösen Onlinemedien bei jüdischen oder israelbezogenen Themen ein Anstieg von Antisemitismus von 7,5 Prozent auf 30 Prozent fest:

Ein Großteil der antisemitischen Diffamierungen werden dabei auf implizite Weise ausgedrückt – durch die Verwendung von Codes und Anspielungen auf bestimmte Verschwörungsphantasien oder die Reproduktion von Stereotypen durch Bilder. Auch Karikaturen und besonders Memes nutzen das Zusammenspiel von Text, Bild und popkultureller Referenzen, um Implizites abzubilden.

Die Alfred Landecker Stiftung, hat zusammen mit dem Zentrum für Antisemitismusforschung der Technischen Universität Berlin, dem King‘s College London und anderen Wissenschaftseinrichtungen in Europa, nun ein Projekt entwickelt, das auch impliziten Antisemitismus im Netz aufspüren soll. „Decoding Antisemitism“ heißt das Projekt, das vom Linguisten Matthias Becker von der TU Berlin geleitet wird. „Die klassische Antisemitismusforschung hat das Internet bislang zu wenig betrachtet. Wir wollen mit verschiedenen Methoden antisemitische Stereotype im Internet erfassen. Dabei berücksichtigen wir nicht nur einzelne Wörter, sondern auch Äußerungszusammenhänge, die Wortwahl und Satzstruktur, um festzustellen, wie sich das Repertoire des Antisemitismus im Internet gegenwärtig entwickelt“, sagt Becker dem Medienmagazin M.

Gelingen soll dies, indem zunächst Daten gesammelt werden. Die Computer werden dann von Diskursanalytiker*innen, Computerlinguist*innen und Historiker*innen mit den Ergebnissen einer qualitativen linguistischen und visuellen Inhaltsanalyse gefüttert und nutzen diese, um Algorithmen, also Künstliche Intelligenz (KI), zu trainieren.

Auch der Ausbruch der COVID-19-Pandemie Ende 2019 wurde weltweit genutzt, um antisemitische Inhalte über das Internet zu verbreiten. In den damit verbundenen Verschwörungsphantasien, Lügen und Gerüchten wurde Jüdinnen und Juden, wie auch dem Staat Israel, im Internet beispielsweise unterstellt, das Virus im Rahmen von Weltherrschaftsplänen als Waffe gegen die Menschheit einzusetzen. Im Januar äußerte sich der Sachsen-Anhaltinische Ministerpräsident Reiner Haseloff (CDU) in einer Fernsehsendung zu den raschen Impferfolgen Israels: „So schnell wie Israel werden wir es nicht schaffen. Aufgrund der bei uns notwendigen rechtlichen Beratung können wir das nicht im Drive-in-Verfahren machen. Wir sind immer noch ein Rechtsstaat.“ Haseloff meinte damit die rechtliche Aufklärung, die jede Person vor der Impfung erhält. Die darin implizite Andeutung über die mangelnde Rechtstaatlichkeit Israels könnte künftig auch einer KI auffallen. Doch Becker ist skeptisch: „Sobald wir uns mit israelbezogenem Antisemitismus befassen, muss man sich als Forscherteam darüber im Klaren sein, wo Kritik am Staat Israel beginnt und wo die Meinungsfreiheit aufhört.“

Im ersten Schritt, der qualitativen Inhaltsanalyse, wolle sich das Team mit allen sprachlichen und visuellen Facetten des Antisemitismus beschäftigen. „Was sich im zweiten Schritt der Analyse die KI ansehen soll, sind Fälle von Stereotyp-Codierungen. Es geht am Anfang also primär um Stereotype, die auf jüdische Menschen, aber auch auf den jüdischen Staat projiziert werden.“

Die Kombination von linguistischem Wissen, das implizite Andeutungen und antisemitische Rhetorik identifizieren kann, mit der Technologie von Algorithmen ist bisher dennoch einzigartig. Es wird dazu führen, dass Computer riesige Mengen an Daten und Bildern analysieren, die Menschen aufgrund ihrer schieren Menge nicht auswerten könnten. Ein Ziel ist es, am Ende der Pilotphase daraus ein Instrument zu haben, das Webseiten und Profile in sozialen Medien nach implizitem Antisemitismus durchsuchen kann.

„Wir wollen in unserem Projekt ein Open Source-Tool entwickeln, das die Moderation von Foren oder Kommentarspalten erleichtert und anzeigen kann, welche Themen oder Äußerungen Diskursauslöser sind“, sagt Benjamin Fischer, Programmanager der Alfred Landecker-Stiftung. Das Tool solle nicht zensieren, betont Fischer gegenüber M. Es solle vielmehr einen bestimmten Sprach- und Bildgebrauch erkennen, um festzustellen, wann und in welcher Form sich „diskursive Muster ergeben und an welchem Punkt potenziell eine Habitualisierung in einem spezifischen Web-Milieu einsetzt.“

Für die Social-Media-Manager*innen und Moderator*innen von Kommentarspalten könnte solch ein Werkzeug künftig eine wichtige Hilfe bei der Bewertung großer Datenmengen darstellen. Die Entscheidung, ob und warum ein Beitrag gelöscht werden soll, trifft aber immer noch der Mensch und nicht die Maschine.

nach oben

Weitere aktuelle Beiträge

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

Rundfunkreform mit vielen Fragezeichen

Bis zuletzt hatten die öffentlich-rechtlichen Anstalten auf ein Ende der Blockade einer Beitragserhöhung durch die Ministerpräsidenten der Länder gehofft. Die Verweigerungshaltung der Politik ließ ihnen am Ende keine Wahl: Am 19. November kündigten ARD und ZDF eine Klage beim Bundesverfassungsgericht an, um ihren Anspruch auf die von der Kommission zur Ermittlung des Finanzbedarfs (KEF) errechnete Empfehlung einer Beitragserhöhung um 58 Cent auf 18,94 Euro monatlich durchzusetzen.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Komplett-Verweigerung der Rundfunkpolitik

Nachdem die Ministerpräsident*innen am heutigen Donnerstag zur Rundfunkpolitik beraten haben, zeichnet sich ein düsteres Bild für die öffentlich-rechtlichen Medien, ihre Angebote und die dort Beschäftigten ab. Beschlossen haben die Ministerpräsident*innen eine Auftrags- und Strukturreform und einen ab 2027 geltenden neuer Mechanismus zur Festsetzung des Rundfunkbeitrags. Nicht verabschiedet wurde jedoch der fällige Rundfunkbeitragsstaatsvertrag.
mehr »