Redaktionen, die Künstliche Intelligenz (KI) nutzen, sollten ethische Verantwortung als „grundlegende Bedingung für gute gesellschaftliche Arbeit begreifen“, rät Julia Meisner, die bei #krassmedial über „Ethik bleibt Handarbeit“ referierte. Sie leitet bei der Gesellschaft für Informatik ein Projekt zur ethischen KI-Entwicklung und erläuterte, wie Medienhäuser und Redaktionen KI-Tools verantwortungsvoll gegenüber Öffentlichkeit und Mitarbeitenden nutzen können.
Meisner berichtete, die Zahl gemeldeter Fälle von missbräuchlicher KI-Anwendung wie Deep Fakes sei seit 2012 um das 26fache gestiegen und das Interesse an einer Ethik für Künstliche Intelligenz wachse. Verschiedene Unternehmen und Organisationen hätten dazu Leitlinien entwickelt. Als Positivbeispiel nannte sie die KI-Ethik-Leitlinien von ver.di, die Anfang 2020 bereits wichtige Aspekte adressierten – etwa die Erweiterung der Handlungs- und Gestaltungsspielräume von Beschäftigten, die der Deutsche Ethikrat erst 2023 aufgriff.
Bei Entwicklung und Nutzung von Künstlicher Intelligenz in der Medienproduktion gebe es sowohl positive als auch negative ethische Folgen, so Meisner, die auf sozialer Ebene Desinformation, Falschnachrichten und plausiblen Unsinn als „vermutlich am brisantesten und bekanntesten“ bezeichnete. So illustrierte der „Spiegel“ im Juli dieses Jahres einen Beitrag über Künstliche Intelligenz mit einem KI-generierten Foto von Ex-Kanzlerin Merkel beim Baden und fragte, ob KI neue Realitäten erschafft, die „wir nicht mehr von der echten Welt unterscheiden können“.
An den Pressekodex halten
Um diese verheerenden sozialen Folgen für die Gesellschaft zu verhindern, müssten ethisch verantwortungsvolle Medienschaffende sich beim KI-Einsatz an den Pressekodex halten. Dieser verlangt unter anderem Wahrhaftigkeit, Sorgfalt, Richtigstellung und Nichtdiskriminierung, um auch einer verzerrten Berichterstattung durch die „Reproduktion sexistischer, rassistischer und kulturalistischer Stereotypen“ entgegen zu wirken. Ethik für KI-Anwendungen könne allerdings „nicht universell implementiert werden, um jegliche Formen von Diskriminierung und kognitiver Verzerrung zu vermeiden“, erläuterte Meisner und plädierte für einen multiperspektivischen und diversitätsbewussten Aushandlungsprozess.
Auch auf sozio-ökonomischer Ebene ist der KI-Einsatz folgenreich und erfordert ethisch bewusste Abwägungen. Einerseits könnten „kleine Redaktionen bei Recherche und Administration entlastet“ werden, aber andererseits bestehe die Gefahr, dass Unternehmen auf „automatisierte Lösungen statt auf teure menschliche Arbeitskräfte setzen“, wogegen jüngst US-amerikanische Drehbuchautor*innen streikten. Die globale Ungleichheit werde verstärkt durch die Abhängigkeit von den KI-Systemen weniger US-Firmen und prekäre Arbeit wie klick-work oder Labeling von Gewalt durch Menschen im Globalen Süden. Auf der anderen Seite erweitere der Einsatz von Künstlicher Intelligenz aber auch „die Teilhabe an der Content-Produktion“ und ermögliche „multilinguale und personifizierte Ansprache“.
Neue Kompetenzen erwerben
Bei den ökologischen Implikationen der KI-Nutzung verwies Meisner auf den enormen Energiebedarf der Hardware, etwa in Rechenzentren. So verbrauche ChatGPT etwa viermal so viel Strom wie die Google-Suchmaschine und stoße pro Jahr so viel CO2 aus wie 123 Benziner-Autos. Deshalb sollten auch Medienschaffende abwägen: „Nur weil ich KI-unterstützt viel mehr produzieren kann, muss ich das auch?“
Meisner betonte: Journalist*innen müssten neue Kompetenzen erwerben, um auch bei der Nutzung von KI-Tools ethisch verantwortlich entscheiden zu können. Es gelte, „automatisiert erstellte Texte auf korrekte Fakten und Zitation, Verzerrungen und Logik“ zu überprüfen sowie die „generierten Ergebnisse“ einzuordnen und etwa zu erklären, warum Meldungen falsch sind. „Voraussetzung dafür sei „technisches Wissen, zum Beispiel: wie funktionieren (Sprach-)Modelle und Prompt Engineering“, d. h. die Aufgabenbeschreibung für eine KI wie ChatGPT. Meisner betonte die Verantwortung gegenüber Rezipierenden: „KI ist nicht nur Tool für den journalistischen Arbeitsprozess, sondern auch Berichterstattungsthema. Die Bevölkerung soll KI aktiv, differenziert und faktenbasiert wahrnehmen.“
Meisner resümierte: „Wenn Medienmacher*innen und Redaktionen KI nutzen, sollten sie sich der Folgen bewusst sein und gemäß ihrer Verantwortung in der Schaffung von Öffentlichkeit und öffentlicher Meinung bewusst handeln.“
Hier ein „Werkzeugkasten“ mit allen in diesem Fokus genannten Tools und deren Links.