KI beinflusst Vielfalt in den Medien

Diskussionsrunde der Neuen deutschen Medienmacher*innen am 16. November 2024 in Berlin. Foto: Schore Mehrdju

Künstliche Intelligenz kann journalistische Texte in verschiedene Sprachen übersetzen und damit viel mehr Nutzer*innen ansprechen. Gleichzeitig kann sie aber auch Stereotype, die in diesen Texten enthalten sind, verfestigen. Gefahren und Chancen von KI-Anwendungen im Journalismus standen im Fokus der diesjährigen NxMedienkonferenz der Neuen deutschen Medienmacher*innen (NdM), die sich für mehr Vielfalt in den Medien einsetzen.

„Trag’s mit Haltung“ steht auf den Info-Taschen, die alle Teilnehmenden der Konferenz erhielten. Diese Werteorientierung prägte auch die Angebote für diejenigen der 700 NdM-Mitglieder, die am vergangenen Samstag nach Berlin gereist waren. Sie diskutierten engagiert in Workshops zu KI, rassismuskritischer Berichterstattung, tauschten sich über Strategien bei Beleidigungen und Bedrohungen aus oder sprachen mit den neu gewählten Vorstandsmitgliedern des Vereins. Journalistische Fehlleistungen wurden in der abschließenden interaktiven Medien-Shit-Show humorvoll aufgespießt.

KI „neigt nicht zu Vielfalt“

Zum Auftakt der Konferenz diskutierten Expert*innen aus Theorie und Praxis über KI im Journalismus. Als Moderatorin Lisa-Marie Idowu fragte, wer von KI profitiere, antwortete Kommunikationswissenschaftlerin Nadia Zaboura: „Medienkritiker*innen!“ Denn es gebe inzwischen ein KI-Tool zur Überprüfung der „Tonalität von Medien“. Damit könne man auch die eigene Arbeit analysieren: Wo stehe ich, wo steht meine Redaktion? Diese Selbstprüfung sei zudem aus Gründen der Transparenz und Glaubwürdigkeit wichtig, so Zaboura. In einer Umfrage zu journalistischer Neutralität hat sich demnach steigendes Vertrauen in von KI generierte Texte gezeigt. Sie werde gegenüber Menschen als „offener“ als diese wahrgenommen.

Kemal Görgülü, KI-Entwickler bei ARTE, bezeichnete die Modelle der „Old School KI“ als „Produktivitätsbooster“, zum Beispiel beim Transkribieren von Interviews oder beim Übersetzen. So lässt die Stadt Hamburg Inhalte ihres Internetauftritts in leichte Sprache übertragen. Die neue Welt der „generativen KI“ eröffne noch ganz andere Möglichkeiten. In Venezuela schützen Journalist*innen sich vor Repressalien, indem sie selbst recherchierte Fakten von KI generierten Avataren präsentieren lassen.

Christina Elmer, Professorin für digitalen Journalismus in Dortmund, plädierte dafür, die Bedürfnisse der unterschiedlichen Nutzer*innen von Medien stärker zu fokussieren. Da „KI nicht zu Vielfalt neigt“, wie Elmer feststellt, ist es an Journalist*innen, KI-Tools besser verstehen zu lernen. Sie müssten die technologischen Entwicklungen selbstkritisch  begleiten. Elmer empfahl in dem Zusammenhang AI 4 media, ein Netzwerk, in dem Wissen über wertebasierte KI-Tools geteilt wird. Journalist*innen sollten nicht nur „auf der KI-Welle surfen“, sondern auch Verantwortung übernehmen.

KI strukturell ethisch verankern

Die ethische Reflexion über KI-Anwendungen treibt auch FairTech-Expertin Mina Saidze um. Sie betrachte mit Sorge, wie große Techunternehmen KI-Tools möglichst schnell auf den Markt bringen, ohne Verantwortung für die Folgen zu übernehmen, so Saidze. Für mehr Diversität und Vermeidung von Stereotypen im Journalismus reiche es nicht, den mageren Frauenanteil in der Techindustrie zu erhöhen. Saidze forderte, KI-Ethik stärker organisatorisch zu verankern und als Compliance-Training für Entwickler*innen einzuführen. Um aussagekräftigere Datensätze zu erhalten, müsse man auch mit synthetischen Daten arbeiten, ergänzte sie. Als etwa zum Thema Brustkrebs nicht genügend Daten aus dem globalen Süden vorlagen, wurden sie vervollständigt mit synthetischen, durch Rechenalgorithmen erstellte Daten. So können Verzerrungen in KI-Trainingsmodellen reduziert werden. 

Christina Elmer betonte, KI-Ethik-Guidelines müssten in den Medienhäusern nach dem Bottom-up-Ansatz entwickelt werden, um die Frage zu klären, „mit welchem KI-System wir arbeiten wollen“. Der gesellschaftliche Diskurs darüber sollte „am Laufen gehalten werden, um die Politik in die Verantwortung zu nehmen, großen Tech-Unternehmen Vorschriften zu machen“.

Kemal Görgülü erklärte dazu, wie ARTE eine KI-Charta entwickelt habe, nach der KI-Modelle nicht zur Content-Generierung eingesetzt werden dürfen. Lediglich zur Arbeitserleichterung bei Übersetzungen oder der Titelfindung für verschiedene Ausspielwege werden sie eingesetzt. KI-Bilder müssten gekennzeichnet werden. Das ZDF sei bei KI-Ethik ein Vorreiter, weil Public Value algorithmisch abgebildet werde.

Vielfalt im Journalismus und in KI-Systemen hängen zusammen

„Wenn es im Journalismus nicht gut bestellt ist mit Vielfalt, dann fehlt sie auch im KI-Subsystem“, so Nadia Zaboura. Sie weitete den Blick auf die internationale Medienindustrie und sprach von „digitalem Kolonialismus“, wenn Clickworker im globalen Süden Datenbanken großer Konzerne zu Hungerlöhnen von verstörenden Inhalten bereinigen. Die Ausbeutungsmuster schreiben sich fort, stimmte ihr Mina Saidze zu – in den Trainingsdaten, aber auch in den Machtkonstellationen der Tech-Unternehmen.

Europäische Medien stehen großen US-Konzernen gegenüber. Um sich im KI-Zeitalter finanzieren zu können, bieten sie Daten an. So nutze OpenAI Daten aus dem Springer-Konzern für das Training seiner KI. Springer bekomme dafür einen „booster in traffic“, so Saidze. Medienhäuser bauen also strategische Partnerschaften auf, anstatt ihre Interessen auf Grundlage von EU-Regulierungen wie dem Digital Service Act in langjährigen Rechtstreitigkeiten durchzusetzen. „Wenn ‚Bild‘-Inhalte nun stärker gerankt werden, finde ich das erschreckend“, empörte sich Zaboura: „Eine Unterjochung unter die Tech-Giganten ist keine Lösung.“ Es sei besser, wenn Europa seine eigene KI auf Basis von Menschenrechten entwickelt.

Vielfalt gibt es nicht auf Knopfdruck

Unter der Leitfrage „Vielfalt auf Knopfdruck?“ vertieften Eda Öztürk und Arina Bychkova vom „Vorlaut“-Kollektiv“ in einem Workshop Chancen und Risiken generativer KI. Als Anwendungsbeispiele nannten sie etwa Radio AI, den ersten Stream, der von einer künstlichen Intelligenz moderiert wird. Oder die Journalistin Nalan Sipar, die das KI-generierte Format „Die wichtigsten Nachrichten des Tages in 100 Sekunden“ für die türkische Community entwickelt hat. Sie schreibt das Skript, ihr Avatar präsentiert den Text. Die weltweit erste KI-Kolumnist*in Anic T Wae schrieb die Kolumne „Intelligenzbestie“ für die taz. Sie basiert auf ChatGPT 3. Um Manipulationen der Realität zu erkennen, gebe es den „Bias Blocker“, so Eda Öztürk. Er prüfe, ob Texte nach Kriterien wie Race, Gender, Nationalität, Alter oder politische Zugehörigkeit verzerrt sind, nutze dabei aber existierende Sprachmodelle wie ChatGPT.

Was KI-Tools wie „Hey Gen“ für die Generierung KI-gestützter Avatare oder Übersetzungen in 29 Sprachen möglich machen, probierte eine Workshopteilnehmerin live aus. Sie sorgte für Erstaunen, wie authentisch sogar die Lippenbewegungen ihres Avatars wirkten, der ihren deutsch gesprochenen Text auf Englisch präsentierte.

Fazit der Diskussionen: KI birgt Chancen. Sie kann mehr Menschen erreichen, sie in ihrer Vielfältigkeit sichtbarer machen, Ressourcen in der Medienproduktion sparen oder Journalist*innen durch Anonymität schützen. Genauso birgt KI auch viele Gefahren für Vielfalt im Journalismus. Durch Manipulationen können Stereotype verstärkt werden, Hasskampagnen angezettelt und journalistische Glaubwürdigkeit ausgehöhlt werden. Kosten oder Bildungsunterschiede schränken zudem die Zugangsmöglichkeiten zu KI-Nutzungen ein.

nach oben

Weitere aktuelle Beiträge

Altersdiskriminierung beim WDR?

Der WDR serviert freie Mitarbeiter*innen ab, die im Rentenalter für den Sender arbeiten wollen. Damit tut er genau das Gegenteil von dem, was in der öffentlichen Diskussion derzeit geraten wird. Während Angestellte sich also über Jahre hinweg auf einen Termin für ihren Ruhestand vorbereiten konnten, wird langjährigen freien Mitarbeiter*innen nun mit kurzer Frist mitgeteilt, wann für sie angeblich Schluss sein soll. Altersdiskriminierung will man beim WDR aber nicht erkennen – für den Sender gehe es vielmehr darum, jüngeren Mitarbeitenden nicht den Einstieg zu blockieren.
mehr »

Buchtipp: Das Prinzip Trotzdem

Wie könnte ein selbstbewusster Journalismus aussehen, der sich gegen die aktuelle Medienkrise zu behaupten weiß und sich auf seine zentrale Rolle für funktionierende demokratischen Gesellschaften besinnt? Roger de Weck war Zeit-Chefredakteur, Generaldirektor des Schweizer Radios und Fernsehens sowie Mitglied des Zukunftsrats für Reformen des Öffentlich-Rechtlichen Rundfunks in Deutschland. In seinem jüngst erschienenen Essay „Das Prinzip Trotzdem. Warum wir den Journalismus vor den Medien retten müssen“ beschäftigt er sich mit genau diesen Fragen.
mehr »

„PR-Puppen“ proben den Aufstand 

Kreative, die der Tech-Konzern OpenAI (ChatGPT, DALL-E) zu einem geschlossenen Produkttest eingeladen hatte, leakten den Testzugang kürzlich und griffen OpenAI in einem Protestschreiben öffentlich an. Sie warfen dem Unternehmen u.a. vor, sie für Marketing und PR zu missbrauchen und Art Washing zu betreiben.Eine teilnehmende Person schildert M , wie es zu dem Leak kam und was Techkonzerne künftig bei der Zusammenarbeit mit Kreativen besser machen können.
mehr »

Studienergebnisse: Worlds of Journalism

Was bedeutet es heute, Journalist*in zu sein? Welche Dynamiken und Entwicklungen lassen sich im Berufsfeld wahrnehmen? Was brauchen wir, um gute und professionelle Arbeit machen zu können? Zu diesen Fragen führt das Langzeitforschungsprojekt „Worlds of Journalism“ seit 2007 weltweit Befragungen durch. Von 2021 bis 2023 ging die Studie in die dritte Runde. Unterstützt von UNESCO und der International Federation of Journalists, fokussiert die aktuelle Umfrage auf den Themenkomplex Risiken und Ungewissheiten. Ein Blick in die Schweiz.
mehr »