Auf der Jahrestagung des Netzwerks Medienethik in Tutzing ging es um Sprache als Verständigungsmittel und journalistisches Handwerkszeug in einer politisch polarisierten Welt, in der gesprochene und geschriebene Sprache zunehmend von KI generiert wird. Über Probleme wie Hate Speech oder Diskriminierung und Potenziale für Inklusion oder Diversität diskutierten Teilnehmende aus Medienwissenschaft und -praxis. Sie loteten ethische Grenzen für den demokratischen Diskurs aus – mit interessanten Ein- und Ausblicken.
„Sprache betrifft den Kern der Demokratie“, so die Tübinger Medienethikerin Ingrid Stapf in ihrer Begrüßung. Sie könne in einem offenen, diskriminierungsfreien Diskurs Menschenwürde, Gleichheit oder Persönlichkeits- und Freiheitsrechte schützen, aber diese Grundwerte auch durch Verzerrung, Hass, manipulatives Framing oder Desinformation verletzen. Über die Hälfte der 17 Vorträge befassten sich mit KI-generierter Sprache, da es besonders hier ethisches Interesse und gesellschaftlichen Orientierungsbedarf gebe.
Entkommerzialisierung von Internet und KI
„Die USA befinden sich im Übergang zu einer oligarchischen Autokratie“, so Bernhard Debatin, Publizistikprofessor in Ohio. Donald Trump habe im ersten Monat seiner Amtszeit ohne Kongress mit 73 Dekreten im Interesse von Milliardären wie Elon Musk regiert. Im medialen Windschatten seiner „außenpolitischen Ablenkungsmanöver“ drückte er Maßnahmen wie die Abschaffung von KI-Sicherheitsstandards durch, mit denen etwa die Privatsphäre geschützt und Diskriminierung verhindert werden sollten.
Wie sich im rechtsfreien Internetraum „strategischer Rassismus“ breitmacht, demonstrierte Debatin am Beispiel von „SunoAI“ – einem generativen KI-Programm zur automatisierten Songentwicklung, das genutzt werde für „hate speech pur“. Es entstanden über 1000 gewalttätige Titel wie „Squatting for Hitler“, in dem „Schwarze sich vor weißer Macht verneigen“. Ein antisemitisches Lied mit dem Titel „My Little Chamber“ bezieht sich auf die Vernichtungslager des Holocaust – ein „gestreiftes Hemd“ und die Kammer als „Endlösung für alle meine Probleme“. Dominante Technik sei „Dog-Whistle“, das heißt scheinbar neutrale Inhalte enthalten Codes, die den Hass der Zielgruppe bedienen.
Tausende von KI-generierten Hass-Botschaften vermüllten das Internet, so Debatin und das sei die „tragedy of commons“: Zunehmende rücksichtslose Nutzung eines Gemeinguts führe zu dessen Zerstörung. Brauchen wir da mehr Regulierung, so eine Frage in der anschließenden Diskussion. Nein, antwortete Debatin, denn in den USA sei „der demokratische Konsens aufgekündigt“. Hoffnung machten ihm allerdings die europäischen Datenschutzverordnungen. Und alternative Plattformen? Einzige Lösung sei die Entkommerzialisierung von Internet und KI, so Debatin. Aber angesichts dessen, dass Qualitätsjournalismus hinter Paywalls verschwindet und der Müll frei flotiert, hätten Gegen-Narrative kaum eine Chance, sich Gehör zu verschaffen.
Öffentlich-rechtliche Plattform-Infrastrukur
Mut machte da die internationale Initiative „Public Spaces Incubator“ (PSI), mit der öffentlich-rechtliche Medien wie ARD und ZDF jenseits kommerzieller Plattformen konstruktive Debattenräume im Netz gestalten wollen – angebunden an ihre Websites, Apps oder Mediatheken. Henning Eichler vom Hessischen Rundfunk erklärte, bisher nutzten ARD und ZDF auch Drittplattformen, um Communities von Rezipierenden zu bilden und zu managen. Ihr Online-Content-Netzwerk “funk“ für junge Menschen habe steigende Reichweiten erzielt. Doch die Journalist*innen richteten ihre Inhalte an Plattformlogiken wie Emotionalisierung aus. Algorithmen priorisierten Hate Speech und Zuspitzungen, User zögen sich in private Chaträume zurück. „Bei technischen Innovationen fehlt die Auseinandersetzung mit ethischen Werten“, kritisierte Eichler – wie etwa dem Integrationsauftrag öffentlich-rechtlicher Sender, der Teilhabe und Pluralismus zur demokratischen Willensbildung beinhaltet.
Seit 2023 kooperieren CBC/Radio-Canada, SRG/SSR (Schweiz), RTBF (Belgien), das ZDF und seit Oktober 2024 auch die ARD und die australische ABC im PSI-Projekt mit der NGO NewPublic, von der die Software entwickelt wird. Die Wünsche an PSI wurden durch Leitfadeninterviews mit 16 Medienschaffenden im Sommer 2024 ermittelt, so die Darmstädter Medienforscherin Vanessa Kokoschka. Danach wollen die Journalist*innen unabhängiger von den „Metriken der Aufmerksamkeitsökonomie“ werden und mehr auf Inhalte als auf Vermarktung fokussieren. Durch eigene „safe spaces“ mit einer respektvolleren Debattenkultur hofften sie, auch neue User zu gewinnen. Es gehe darum, eine eigene Plattform-Infrastruktur aufzubauen, die orientiert an öffentlich-rechtlichen Werten gestaltet wird, so Kokoschka.
Sprachmodelle und Ethik
Wie heutige und zukünftige Journalist*innen werteorientiert generative KI-Sprachmodelle einsetzen können, thematisieren zwei Projekte an der Stuttgarter Hochschule der Medien HdM. „Geist“ (Generator für emotional individualisierbare Synthetik-Stimmen) untersucht den Einsatz von synthetischen Stimmen im Nachrichtenbereich. Nach Auskunft von Projektmitarbeiterin Susanne Kuhnert akzeptierten befragte Journalist*innen und Moderator*innen durchaus generative KI, denn Veränderung sei wichtig. Doch ihr Einsatz müsse sichtbar sein und deshalb gekennzeichnet werden. Die Kontrolle und Verantwortung sollte immer bei Menschen liegen. “IKID” ist ein Projekt zu integrierter KI-Lehre. Medienethik-Professorin Petra Grimm erläuterte, es gehe dabei um ethische Leitlinien fürs Voice-Cloning oder den Einsatz eines Avatars zur Sensibilisierung für Desinformation. Danach gefragt, ob Radiomoderator*innen ihre Stimme angesichts von KI-Klonen patentieren lassen sollten, antwortete Grimm, ihnen sei klar, dass sie ihren Job verlieren können und da sei Patentierung eine Möglichkeit.
Für die Entwicklung von Large Language Models (LLM) zur Textgenerierung, etwa für Übersetzungen oder Suchmaschinen, benötigt man riesige Datenmengen. Wie diese Trainingsdaten nach ethischen Standards bewertet werden können, demonstrierte die Tübinger Medienforscherin Jana Hecktor an dem Projekt “KITQAR” (KI-Test- und Trainingsdatenqualität in der digitalen Arbeitsgesellschaft). Mit Blick auf den EU AI-Act von 2024 wurden verschiedene Kriterien ermittelt wie Transparenz, Ausgewogenheit oder Diversität, um etwa Verzerrungen, Diskriminierungen und Verstärkung von sozialen Ungleichheiten zu vermeiden.
Hier knüpfte die Tübinger Computerspielforscherin Theresa Krampe an, als sie für intersektionale Perspektiven plädierte, die gleichzeitig Geschlecht, Herkunft oder Religion in den Blick nehmen. Technische Lösungen seien dafür unzureichend, da sie “komplexe soziokulturelle Kontexte und historisch gewachsene Machtstrukturen nicht erfassen”. Datensätze in KI-Modellen könnten Diskurse verzerren, denn die Trainingsdaten im Netz beruhen “auf historisch gewachsenen Ungleichheiten”, die mariginalisierte Menschen nicht zu Wort kommen lassen. Da reiche es nicht, die Datensätze mit anderen aufzufüllen.
Andere und begrenzte KI-Nutzung
Man müsse “KI anders denken” wie postkononiale Autorinnen und Künstlerinnen, so Krampe. Das mache Stephanie Dinkins mit ihrem interaktiven Kunstprojekt NTOO (Not The Only One). Ein KI-Bot in einer Skulptur erzählt die Geschichte ihrer eigenen schwarzen amerikanischen Familie. Dinkin trainierte den Algorithmus mit Daten, die “sich explizit gegen Diskriminierung wenden”. Besucher*innen können sich mit der KI unterhalten.
Im Gespräch mit der Tübinger Medienethikerin Jessica Heesen berichtete Rebecca Ciesielski vom AI + Automation Lab des Bayerischen Rundfunks aus der Medienpraxis. Man wolle durch Teilautomatisierung in Redaktionen Freiräume für kreative Aufgaben schaffen, etwa wenn Radionachrichten für regionale Updates zusammengefasst werden. Bei der Verwendung von Sprachmodellen sei der BR „nicht komplett unabhängig. Wir testen viele unterschiedliche und prüfen ihren Einsatz“. Sie experimentierten mit Open Source und hätten auch ChatGPT getestet, um Faktboxen zu Themen wie „Jetstream“ oder „Moore“ zu erstellen. Doch die Fehlerquote war zu hoch, die Korrekturen aufwändiger als selber zu schreiben. Faktencheck und redaktionelle Abnahme gehöre zum Ethik-Kanon des BR, denn Glaubwürdigkeit gehe vor Geschwindigkeit. KI würde vor allem als Assistenzsystem genutzt – etwa um Basistexte in andere Formate zu überführen.