Mit Recht und Technik gegen Fake News

Frau mit großer Lupe

Foto: 123rf

Als „vielleicht größte Gefahr“ in der digitalen Welt sieht die Landesanstalt für Medien NRW (LFM) die Verbreitung von Desinformationen. Insbesondere gilt das für die Demokratische Willensbildung. Daher wird die Aufsichtsbehörde ihren Scherpunkt im kommenden Jahr genau auf dieses Thema richten. Aber wie kann man der Flut an Fake News und Deep Fakes Herr werden?

„Das Thema Desinformation ist in der Auseinandersetzung von demokratischen und weniger demokratischen Staaten eine neue Dimension“, sagt LFM-Direktor Tobias Schmid eine Lage, die für seine Behörde immer mehr zu einem Handlungsfeld wird. „Ein Gefühl der Demokratiegefährdung macht sich breit“, ist sich der oberste Medienwächter im bevölkerungsreichsten Bundesland sicher.

Was den Kampf gegen Falschnachrichten so schwierig macht, ist die rechtliche Bewertung, ab wann es etwas wahr oder unwahr ist. Was besser zu bewerten sei, so Schmid, seien objektive Kriterien wie technische Manipulationen: „Das ist relativ einfach festzustellen.“

Ein Beispiel: An die Landesanstalt wurde von einem Wissenschaftler schon vor drei Jahren folgender Fall herangetragen: Auf den ausländerfeindlichen Post einer Partei hin gab es innerhalb kürzester Zeit über 200.000 Reposts – alle von einem Server aus Afrika und meistens unterzeichnet mit Namen, die aus zwei oder drei Buchstaben bestanden. Ganz klar: Die Nutzerschaft sollte über die Relevanz des geposteten Inhalts getäuscht werden. Im Fachjargon heißt das „coordinated inauthentic behaviour“. „Wir stellen fest, dass ‚coordinated inauthentic behaviour‘ immer häufiger zu beobachten ist“ berichtet der Direktor.

KI als Treiber für Desinformation

Auch die Geschäftswelt beschäftigt sich intensiv mit der Erkennung und Abwehr solcher Aktivitäten. Das bestätigte die stellvertretende Vorsitzende für Immersive Experiences im Bundesverband Digitale Wirtschaft (BVDW), Lea Horn, während der Digitalmesse Dmexco.  Zu den technischen Lösungsmöglichkeiten erklärt sie: „Man kann maschinelles Lernen nutzen, um in Quelldaten jeglicher Form – sei es Bild, Text, Video oder Ton – Unstimmigkeiten oder auffällige Modifikationen aufzudecken.”

Dieses Vorgehen ist nicht neu. Denn soziale Netzwerke hatten schon in der Vergangenheit mit der Problematik zu kämpfen, dass durch ihre Viralität Falschinformationen schnell und ungeprüft verbreitet werden konnten. „Wirklich akut wurde das Problem in den letzten zehn Jahren mit der Entwicklung der sozialen Medien“, beschreibt die Expertin vom BVDW die Entwicklung.

Neu ist, dass das Volumen manipulierter und manipulativer Inhalte durch generative KI stark zugenommen hat, und dies die eigentliche Herausforderung zu sein scheint. Um Manipulationen zu erkennen, werden spezialisierte Technologien eingesetzt, die auf die verschiedenen Medientypen abgestimmt sind.

Zwar gibt es bereits einige für Endnutzer zugängliche Tools, die Manipulationen in Text, Bild, Video und Ton erkennen können, doch seien diese Lösungen fragmentiert und meist auf einzelne Medientypen beschränkt. Eine universelle, leicht zugängliche Plattform, die alle Medientypen abdeckt und somit konsistente und zuverlässige Ergebnisse liefert, fehlt bislang.

Erster und wichtigster Schritt: Juristische Grundlagen

Neben dem Erkennen von Deepfakes und Desinformation ist aus Sicht der stellvertretenden Vorsitzenden deren Prävention ein wichtiger Aspekt möglicher Lösungsansätze: „Es braucht unveränderliche und nachvollziehbare Methoden, um die Glaubwürdigkeit und Authentizität digitaler Inhalte zu verifizieren und damit präventiv gegen Deepfakes und Desinformation vorzugehen.  Schon heute könne man die bestehenden Technologien nutzen, um Herkunft und Quelle von digitalen Inhalten festzustellen. Ob dann zum Beispiel Beweismaterialien an zuständigen Stellen weitergegeben werden dürfen oder müssen ist juristisch noch nicht geklärt.

Und genau hier knüpft auch Schmid an: „Die neue Richtline der EU, der Digital Service Act (DSA), fordert code of conducts ein, die verpflichtend sind, das ist aber noch in der Vorbereitung.“ Plattformen müssen bestimmte Sicherheitssysteme einführen. Was damit gemeint sei, definiere der DSA nicht. Die Plattformen jedenfalls verfügten über die technologischen Werkzeuge, um gegen Auswüchse in der digitalen Welt vorzugehen und sind auch eine entsprechende Selbstverpflichtung, einen code of practice, eingegangen. Problem: Elon Musk ist mit seinem Netzwerk X ist von den Selbstverpflichtungen wieder zurückgetreten.

Klare gesetzliche Grundlagen wären aus Sicht des promovierten Juristen der erste wichtigste Schritt, um etwa technische Manipulation der Reichweite und Relevanz zu ahnden: „Wir könnten dann sofort loslegen und hätten auch direkt einen Adressaten, das wären die Plattformen. Damit würden wir sofort eine große Spitze der Desinformation brechen.“ Die gesetzlichen Grundlagen dafür, so der LFM-Chef weiter, könnten „,wenn wir Glück haben“, auch mit Blick auf die EU, in drei bis sechs Monaten vorliegen, „wenn wir Pech haben, in drei bis sechs Jahren.“

 

 

nach oben

Weitere aktuelle Beiträge

Altersdiskriminierung beim WDR?

Der WDR serviert freie Mitarbeiter*innen ab, die im Rentenalter für den Sender arbeiten wollen. Damit tut er genau das Gegenteil von dem, was in der öffentlichen Diskussion derzeit geraten wird. Während Angestellte sich also über Jahre hinweg auf einen Termin für ihren Ruhestand vorbereiten konnten, wird langjährigen freien Mitarbeiter*innen nun mit kurzer Frist mitgeteilt, wann für sie angeblich Schluss sein soll. Altersdiskriminierung will man beim WDR aber nicht erkennen – für den Sender gehe es vielmehr darum, jüngeren Mitarbeitenden nicht den Einstieg zu blockieren.
mehr »

Buchtipp: Das Prinzip Trotzdem

Wie könnte ein selbstbewusster Journalismus aussehen, der sich gegen die aktuelle Medienkrise zu behaupten weiß und sich auf seine zentrale Rolle für funktionierende demokratischen Gesellschaften besinnt? Roger de Weck war Zeit-Chefredakteur, Generaldirektor des Schweizer Radios und Fernsehens sowie Mitglied des Zukunftsrats für Reformen des Öffentlich-Rechtlichen Rundfunks in Deutschland. In seinem jüngst erschienenen Essay „Das Prinzip Trotzdem. Warum wir den Journalismus vor den Medien retten müssen“ beschäftigt er sich mit genau diesen Fragen.
mehr »

„PR-Puppen“ proben den Aufstand 

Kreative, die der Tech-Konzern OpenAI (ChatGPT, DALL-E) zu einem geschlossenen Produkttest eingeladen hatte, leakten den Testzugang kürzlich und griffen OpenAI in einem Protestschreiben öffentlich an. Sie warfen dem Unternehmen u.a. vor, sie für Marketing und PR zu missbrauchen und Art Washing zu betreiben.Eine teilnehmende Person schildert M , wie es zu dem Leak kam und was Techkonzerne künftig bei der Zusammenarbeit mit Kreativen besser machen können.
mehr »

Studienergebnisse: Worlds of Journalism

Was bedeutet es heute, Journalist*in zu sein? Welche Dynamiken und Entwicklungen lassen sich im Berufsfeld wahrnehmen? Was brauchen wir, um gute und professionelle Arbeit machen zu können? Zu diesen Fragen führt das Langzeitforschungsprojekt „Worlds of Journalism“ seit 2007 weltweit Befragungen durch. Von 2021 bis 2023 ging die Studie in die dritte Runde. Unterstützt von UNESCO und der International Federation of Journalists, fokussiert die aktuelle Umfrage auf den Themenkomplex Risiken und Ungewissheiten. Ein Blick in die Schweiz.
mehr »