Ethische Abwägungen

# krassmedial: Julia Meisner von der Gesellschaft für Informatik sprach über "Ethik und Handarbeit" Foto: Charles Yunck

Redaktionen, die Künstliche Intelligenz (KI) nutzen, sollten ethische Verantwortung als „grundlegende Bedingung für gute gesellschaftliche Arbeit begreifen“, rät Julia Meisner, die bei #krassmedial über „Ethik bleibt Handarbeit“ referierte. Sie leitet bei der Gesellschaft für Informatik ein Projekt zur ethischen KI-Entwicklung und erläuterte, wie Medienhäuser und Redaktionen KI-Tools verantwortungsvoll gegenüber Öffentlichkeit und Mitarbeitenden nutzen können.

Meisner berichtete, die Zahl gemeldeter Fälle von missbräuchlicher KI-Anwendung wie Deep Fakes sei seit 2012 um das 26fache gestiegen und das Interesse an einer Ethik für Künstliche Intelligenz wachse. Verschiedene Unternehmen und Organisationen hätten dazu Leitlinien entwickelt. Als Positivbeispiel nannte sie die KI-Ethik-Leitlinien von ver.di, die Anfang 2020 bereits wichtige Aspekte adressierten – etwa die Erweiterung der Handlungs- und Gestaltungsspielräume von Beschäftigten, die der Deutsche Ethikrat erst 2023 aufgriff.

Bei Entwicklung und Nutzung von Künstlicher Intelligenz in der Medienproduktion gebe es sowohl positive als auch negative ethische Folgen, so Meisner, die auf sozialer Ebene Desinformation, Falschnachrichten und plausiblen Unsinn als „vermutlich am brisantesten und bekanntesten“ bezeichnete. So illustrierte der „Spiegel“ im Juli dieses Jahres einen Beitrag über Künstliche Intelligenz mit einem KI-generierten Foto von Ex-Kanzlerin Merkel beim Baden und fragte, ob KI neue Realitäten erschafft, die „wir nicht mehr von der echten Welt unterscheiden können“.

An den Pressekodex halten

Um diese verheerenden sozialen Folgen für die Gesellschaft zu verhindern, müssten ethisch verantwortungsvolle Medienschaffende sich beim KI-Einsatz an den Pressekodex halten. Dieser verlangt unter anderem Wahrhaftigkeit, Sorgfalt, Richtigstellung und Nichtdiskriminierung, um auch einer verzerrten Berichterstattung durch die „Reproduktion sexistischer, rassistischer und kulturalistischer Stereotypen“ entgegen zu wirken. Ethik für KI-Anwendungen könne allerdings „nicht universell implementiert werden, um jegliche Formen von Diskriminierung und kognitiver Verzerrung zu vermeiden“, erläuterte Meisner und plädierte für einen multiperspektivischen und diversitätsbewussten Aushandlungsprozess.

Auch auf sozio-ökonomischer Ebene ist der KI-Einsatz folgenreich und erfordert ethisch bewusste Abwägungen. Einerseits könnten „kleine Redaktionen bei Recherche und Administration entlastet“ werden, aber andererseits bestehe die Gefahr, dass Unternehmen auf „automatisierte Lösungen statt auf teure menschliche Arbeitskräfte setzen“, wogegen jüngst US-amerikanische Drehbuchautor*innen streikten. Die globale Ungleichheit werde verstärkt durch die Abhängigkeit von den KI-Systemen weniger US-Firmen und prekäre Arbeit wie klick-work oder Labeling von Gewalt durch Menschen im Globalen Süden. Auf der anderen Seite erweitere der Einsatz von Künstlicher Intelligenz aber auch „die Teilhabe an der Content-Produktion“ und ermögliche „multilinguale und personifizierte Ansprache“.

Neue Kompetenzen erwerben

Bei den ökologischen Implikationen der KI-Nutzung verwies Meisner auf den enormen Energiebedarf der Hardware, etwa in Rechenzentren. So verbrauche ChatGPT etwa viermal so viel Strom wie die Google-Suchmaschine und stoße pro Jahr so viel CO2 aus wie 123 Benziner-Autos. Deshalb sollten auch Medienschaffende abwägen: „Nur weil ich KI-unterstützt viel mehr produzieren kann, muss ich das auch?“

Meisner betonte: Journalist*innen müssten neue Kompetenzen erwerben, um auch bei der Nutzung von KI-Tools ethisch verantwortlich entscheiden zu können. Es gelte, „automatisiert erstellte Texte auf korrekte Fakten und Zitation, Verzerrungen und Logik“ zu überprüfen sowie die „generierten Ergebnisse“ einzuordnen und etwa zu erklären, warum Meldungen falsch sind. „Voraussetzung dafür sei „technisches Wissen, zum Beispiel: wie funktionieren (Sprach-)Modelle und Prompt Engineering“, d. h. die Aufgabenbeschreibung für eine KI wie ChatGPT. Meisner betonte die Verantwortung gegenüber Rezipierenden: „KI ist nicht nur Tool für den journalistischen Arbeitsprozess, sondern auch Berichterstattungsthema. Die Bevölkerung soll KI aktiv, differenziert und faktenbasiert wahrnehmen.“

Meisner resümierte: „Wenn Medienmacher*innen und Redaktionen KI nutzen, sollten sie sich der Folgen bewusst sein und gemäß ihrer Verantwortung in der Schaffung von Öffentlichkeit und öffentlicher Meinung bewusst handeln.“

Hier ein „Werkzeugkasten“ mit allen in diesem Fokus genannten Tools und deren Links.

 

 

nach oben

Weitere aktuelle Beiträge

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

Rundfunkreform mit vielen Fragezeichen

Bis zuletzt hatten die öffentlich-rechtlichen Anstalten auf ein Ende der Blockade einer Beitragserhöhung durch die Ministerpräsidenten der Länder gehofft. Die Verweigerungshaltung der Politik ließ ihnen am Ende keine Wahl: Am 19. November kündigten ARD und ZDF eine Klage beim Bundesverfassungsgericht an, um ihren Anspruch auf die von der Kommission zur Ermittlung des Finanzbedarfs (KEF) errechnete Empfehlung einer Beitragserhöhung um 58 Cent auf 18,94 Euro monatlich durchzusetzen.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »