KI beinflusst Vielfalt in den Medien

Diskussionsrunde der Neuen deutschen Medienmacher*innen am 16. November 2024 in Berlin. Foto: Schore Mehrdju

Künstliche Intelligenz kann journalistische Texte in verschiedene Sprachen übersetzen und damit viel mehr Nutzer*innen ansprechen. Gleichzeitig kann sie aber auch Stereotype, die in diesen Texten enthalten sind, verfestigen. Gefahren und Chancen von KI-Anwendungen im Journalismus standen im Fokus der diesjährigen NxMedienkonferenz der Neuen deutschen Medienmacher*innen (NdM), die sich für mehr Vielfalt in den Medien einsetzen.

„Trag’s mit Haltung“ steht auf den Info-Taschen, die alle Teilnehmenden der Konferenz erhielten. Diese Werteorientierung prägte auch die Angebote für diejenigen der 700 NdM-Mitglieder, die am vergangenen Samstag nach Berlin gereist waren. Sie diskutierten engagiert in Workshops zu KI, rassismuskritischer Berichterstattung, tauschten sich über Strategien bei Beleidigungen und Bedrohungen aus oder sprachen mit den neu gewählten Vorstandsmitgliedern des Vereins. Journalistische Fehlleistungen wurden in der abschließenden interaktiven Medien-Shit-Show humorvoll aufgespießt.

KI „neigt nicht zu Vielfalt“

Zum Auftakt der Konferenz diskutierten Expert*innen aus Theorie und Praxis über KI im Journalismus. Als Moderatorin Lisa-Marie Idowu fragte, wer von KI profitiere, antwortete Kommunikationswissenschaftlerin Nadia Zaboura: „Medienkritiker*innen!“ Denn es gebe inzwischen ein KI-Tool zur Überprüfung der „Tonalität von Medien“. Damit könne man auch die eigene Arbeit analysieren: Wo stehe ich, wo steht meine Redaktion? Diese Selbstprüfung sei zudem aus Gründen der Transparenz und Glaubwürdigkeit wichtig, so Zaboura. In einer Umfrage zu journalistischer Neutralität hat sich demnach steigendes Vertrauen in von KI generierte Texte gezeigt. Sie werde gegenüber Menschen als „offener“ als diese wahrgenommen.

Kemal Görgülü, KI-Entwickler bei ARTE, bezeichnete die Modelle der „Old School KI“ als „Produktivitätsbooster“, zum Beispiel beim Transkribieren von Interviews oder beim Übersetzen. So lässt die Stadt Hamburg Inhalte ihres Internetauftritts in leichte Sprache übertragen. Die neue Welt der „generativen KI“ eröffne noch ganz andere Möglichkeiten. In Venezuela schützen Journalist*innen sich vor Repressalien, indem sie selbst recherchierte Fakten von KI generierten Avataren präsentieren lassen.

Christina Elmer, Professorin für digitalen Journalismus in Dortmund, plädierte dafür, die Bedürfnisse der unterschiedlichen Nutzer*innen von Medien stärker zu fokussieren. Da „KI nicht zu Vielfalt neigt“, wie Elmer feststellt, ist es an Journalist*innen, KI-Tools besser verstehen zu lernen. Sie müssten die technologischen Entwicklungen selbstkritisch  begleiten. Elmer empfahl in dem Zusammenhang AI 4 media, ein Netzwerk, in dem Wissen über wertebasierte KI-Tools geteilt wird. Journalist*innen sollten nicht nur „auf der KI-Welle surfen“, sondern auch Verantwortung übernehmen.

KI strukturell ethisch verankern

Die ethische Reflexion über KI-Anwendungen treibt auch FairTech-Expertin Mina Saidze um. Sie betrachte mit Sorge, wie große Techunternehmen KI-Tools möglichst schnell auf den Markt bringen, ohne Verantwortung für die Folgen zu übernehmen, so Saidze. Für mehr Diversität und Vermeidung von Stereotypen im Journalismus reiche es nicht, den mageren Frauenanteil in der Techindustrie zu erhöhen. Saidze forderte, KI-Ethik stärker organisatorisch zu verankern und als Compliance-Training für Entwickler*innen einzuführen. Um aussagekräftigere Datensätze zu erhalten, müsse man auch mit synthetischen Daten arbeiten, ergänzte sie. Als etwa zum Thema Brustkrebs nicht genügend Daten aus dem globalen Süden vorlagen, wurden sie vervollständigt mit synthetischen, durch Rechenalgorithmen erstellte Daten. So können Verzerrungen in KI-Trainingsmodellen reduziert werden. 

Christina Elmer betonte, KI-Ethik-Guidelines müssten in den Medienhäusern nach dem Bottom-up-Ansatz entwickelt werden, um die Frage zu klären, „mit welchem KI-System wir arbeiten wollen“. Der gesellschaftliche Diskurs darüber sollte „am Laufen gehalten werden, um die Politik in die Verantwortung zu nehmen, großen Tech-Unternehmen Vorschriften zu machen“.

Kemal Görgülü erklärte dazu, wie ARTE eine KI-Charta entwickelt habe, nach der KI-Modelle nicht zur Content-Generierung eingesetzt werden dürfen. Lediglich zur Arbeitserleichterung bei Übersetzungen oder der Titelfindung für verschiedene Ausspielwege werden sie eingesetzt. KI-Bilder müssten gekennzeichnet werden. Das ZDF sei bei KI-Ethik ein Vorreiter, weil Public Value algorithmisch abgebildet werde.

Vielfalt im Journalismus und in KI-Systemen hängen zusammen

„Wenn es im Journalismus nicht gut bestellt ist mit Vielfalt, dann fehlt sie auch im KI-Subsystem“, so Nadia Zaboura. Sie weitete den Blick auf die internationale Medienindustrie und sprach von „digitalem Kolonialismus“, wenn Clickworker im globalen Süden Datenbanken großer Konzerne zu Hungerlöhnen von verstörenden Inhalten bereinigen. Die Ausbeutungsmuster schreiben sich fort, stimmte ihr Mina Saidze zu – in den Trainingsdaten, aber auch in den Machtkonstellationen der Tech-Unternehmen.

Europäische Medien stehen großen US-Konzernen gegenüber. Um sich im KI-Zeitalter finanzieren zu können, bieten sie Daten an. So nutze OpenAI Daten aus dem Springer-Konzern für das Training seiner KI. Springer bekomme dafür einen „booster in traffic“, so Saidze. Medienhäuser bauen also strategische Partnerschaften auf, anstatt ihre Interessen auf Grundlage von EU-Regulierungen wie dem Digital Service Act in langjährigen Rechtstreitigkeiten durchzusetzen. „Wenn ‚Bild‘-Inhalte nun stärker gerankt werden, finde ich das erschreckend“, empörte sich Zaboura: „Eine Unterjochung unter die Tech-Giganten ist keine Lösung.“ Es sei besser, wenn Europa seine eigene KI auf Basis von Menschenrechten entwickelt.

Vielfalt gibt es nicht auf Knopfdruck

Unter der Leitfrage „Vielfalt auf Knopfdruck?“ vertieften Eda Öztürk und Arina Bychkova vom „Vorlaut“-Kollektiv“ in einem Workshop Chancen und Risiken generativer KI. Als Anwendungsbeispiele nannten sie etwa Radio AI, den ersten Stream, der von einer künstlichen Intelligenz moderiert wird. Oder die Journalistin Nalan Sipar, die das KI-generierte Format „Die wichtigsten Nachrichten des Tages in 100 Sekunden“ für die türkische Community entwickelt hat. Sie schreibt das Skript, ihr Avatar präsentiert den Text. Die weltweit erste KI-Kolumnist*in Anic T Wae schrieb die Kolumne „Intelligenzbestie“ für die taz. Sie basiert auf ChatGPT 3. Um Manipulationen der Realität zu erkennen, gebe es den „Bias Blocker“, so Eda Öztürk. Er prüfe, ob Texte nach Kriterien wie Race, Gender, Nationalität, Alter oder politische Zugehörigkeit verzerrt sind, nutze dabei aber existierende Sprachmodelle wie ChatGPT.

Was KI-Tools wie „Hey Gen“ für die Generierung KI-gestützter Avatare oder Übersetzungen in 29 Sprachen möglich machen, probierte eine Workshopteilnehmerin live aus. Sie sorgte für Erstaunen, wie authentisch sogar die Lippenbewegungen ihres Avatars wirkten, der ihren deutsch gesprochenen Text auf Englisch präsentierte.

Fazit der Diskussionen: KI birgt Chancen. Sie kann mehr Menschen erreichen, sie in ihrer Vielfältigkeit sichtbarer machen, Ressourcen in der Medienproduktion sparen oder Journalist*innen durch Anonymität schützen. Genauso birgt KI auch viele Gefahren für Vielfalt im Journalismus. Durch Manipulationen können Stereotype verstärkt werden, Hasskampagnen angezettelt und journalistische Glaubwürdigkeit ausgehöhlt werden. Kosten oder Bildungsunterschiede schränken zudem die Zugangsmöglichkeiten zu KI-Nutzungen ein.

nach oben

Weitere aktuelle Beiträge

Ver.di: Deutsche Welle nicht kürzen

Die Vereinte Dienstleistungsgewerkschaft (ver.di) kritisiert die geplante Etat-Senkung bei der Deutschen Welle, mit der eine Schrumpfung des deutschen Auslandssenders einhergehen wird. Stattdessen müsse eine ausreichende Finanzierung durch Bundesmittel gewährleistet werden.
mehr »

Schon entdeckt? Wie Rechte reden

Jede Woche die Analyse eines rechten Zitats – ob aus dem Bundestag oder beim Weihnachtsessen mit der Familie. Das bietet der Newsletter „Wie Rechte reden“ von Maria Timtschenko und Johannes Giesler. Denn: „Die Neue Rechte ist da“, wie die Autor*innen in der Ankündigung ihres Newsletters schreiben: „Sie ist auf der WG-Party bei deinen Freund:innen eingeladen. Sie steht neben dir in der Schlange für ‚Einmal Döner, bitte‘." Und sie verschiebt ihren menschenfeindlichen und autoritären Diskurs in die gesellschaftliche Öffentlichkeit, in Kommentarspalten, eigenen Medien oder Gruppenchats.
mehr »

RSF: Exilmedien als Quelle

Sie decken Korruption und Unterdrückung auf, wo ausländische Korrespondent*innen keinen Zugang haben: Exilmedien sorgen dafür, dass zuverlässige Informationen aus geschlossenen Diktaturen weiterhin verfügbar bleiben. In Kooperation mit dem JX Fund stellt Reporter ohne Grenzen (RSF) dar, wie wichtig Exiljournalist*innen in der internationalen Berichterstattung sind.
mehr »

Urheberrecht: ChatGPT-Urteil ist Anfang

Ein Präzedenzfall ist das Urteil im Rechtsstreit zwischen der Verwertungsgesellschaft Gema und dem KI-Unternehmen OpenAI vom 11. November 2025 sicherlich. Aber abgesehen von einem zu erwartenden längeren Instanzenweg stellt sich auch die Frage, wie sich die gesamte Kreativwirtschaft gegen die ungefragte Nutzung von geistigem Eigentum wehren kann.
mehr »