Ethische Abwägungen

# krassmedial: Julia Meisner von der Gesellschaft für Informatik sprach über "Ethik und Handarbeit" Foto: Charles Yunck

Redaktionen, die Künstliche Intelligenz (KI) nutzen, sollten ethische Verantwortung als „grundlegende Bedingung für gute gesellschaftliche Arbeit begreifen“, rät Julia Meisner, die bei #krassmedial über „Ethik bleibt Handarbeit“ referierte. Sie leitet bei der Gesellschaft für Informatik ein Projekt zur ethischen KI-Entwicklung und erläuterte, wie Medienhäuser und Redaktionen KI-Tools verantwortungsvoll gegenüber Öffentlichkeit und Mitarbeitenden nutzen können.

Meisner berichtete, die Zahl gemeldeter Fälle von missbräuchlicher KI-Anwendung wie Deep Fakes sei seit 2012 um das 26fache gestiegen und das Interesse an einer Ethik für Künstliche Intelligenz wachse. Verschiedene Unternehmen und Organisationen hätten dazu Leitlinien entwickelt. Als Positivbeispiel nannte sie die KI-Ethik-Leitlinien von ver.di, die Anfang 2020 bereits wichtige Aspekte adressierten – etwa die Erweiterung der Handlungs- und Gestaltungsspielräume von Beschäftigten, die der Deutsche Ethikrat erst 2023 aufgriff.

Bei Entwicklung und Nutzung von Künstlicher Intelligenz in der Medienproduktion gebe es sowohl positive als auch negative ethische Folgen, so Meisner, die auf sozialer Ebene Desinformation, Falschnachrichten und plausiblen Unsinn als „vermutlich am brisantesten und bekanntesten“ bezeichnete. So illustrierte der „Spiegel“ im Juli dieses Jahres einen Beitrag über Künstliche Intelligenz mit einem KI-generierten Foto von Ex-Kanzlerin Merkel beim Baden und fragte, ob KI neue Realitäten erschafft, die „wir nicht mehr von der echten Welt unterscheiden können“.

An den Pressekodex halten

Um diese verheerenden sozialen Folgen für die Gesellschaft zu verhindern, müssten ethisch verantwortungsvolle Medienschaffende sich beim KI-Einsatz an den Pressekodex halten. Dieser verlangt unter anderem Wahrhaftigkeit, Sorgfalt, Richtigstellung und Nichtdiskriminierung, um auch einer verzerrten Berichterstattung durch die „Reproduktion sexistischer, rassistischer und kulturalistischer Stereotypen“ entgegen zu wirken. Ethik für KI-Anwendungen könne allerdings „nicht universell implementiert werden, um jegliche Formen von Diskriminierung und kognitiver Verzerrung zu vermeiden“, erläuterte Meisner und plädierte für einen multiperspektivischen und diversitätsbewussten Aushandlungsprozess.

Auch auf sozio-ökonomischer Ebene ist der KI-Einsatz folgenreich und erfordert ethisch bewusste Abwägungen. Einerseits könnten „kleine Redaktionen bei Recherche und Administration entlastet“ werden, aber andererseits bestehe die Gefahr, dass Unternehmen auf „automatisierte Lösungen statt auf teure menschliche Arbeitskräfte setzen“, wogegen jüngst US-amerikanische Drehbuchautor*innen streikten. Die globale Ungleichheit werde verstärkt durch die Abhängigkeit von den KI-Systemen weniger US-Firmen und prekäre Arbeit wie klick-work oder Labeling von Gewalt durch Menschen im Globalen Süden. Auf der anderen Seite erweitere der Einsatz von Künstlicher Intelligenz aber auch „die Teilhabe an der Content-Produktion“ und ermögliche „multilinguale und personifizierte Ansprache“.

Neue Kompetenzen erwerben

Bei den ökologischen Implikationen der KI-Nutzung verwies Meisner auf den enormen Energiebedarf der Hardware, etwa in Rechenzentren. So verbrauche ChatGPT etwa viermal so viel Strom wie die Google-Suchmaschine und stoße pro Jahr so viel CO2 aus wie 123 Benziner-Autos. Deshalb sollten auch Medienschaffende abwägen: „Nur weil ich KI-unterstützt viel mehr produzieren kann, muss ich das auch?“

Meisner betonte: Journalist*innen müssten neue Kompetenzen erwerben, um auch bei der Nutzung von KI-Tools ethisch verantwortlich entscheiden zu können. Es gelte, „automatisiert erstellte Texte auf korrekte Fakten und Zitation, Verzerrungen und Logik“ zu überprüfen sowie die „generierten Ergebnisse“ einzuordnen und etwa zu erklären, warum Meldungen falsch sind. „Voraussetzung dafür sei „technisches Wissen, zum Beispiel: wie funktionieren (Sprach-)Modelle und Prompt Engineering“, d. h. die Aufgabenbeschreibung für eine KI wie ChatGPT. Meisner betonte die Verantwortung gegenüber Rezipierenden: „KI ist nicht nur Tool für den journalistischen Arbeitsprozess, sondern auch Berichterstattungsthema. Die Bevölkerung soll KI aktiv, differenziert und faktenbasiert wahrnehmen.“

Meisner resümierte: „Wenn Medienmacher*innen und Redaktionen KI nutzen, sollten sie sich der Folgen bewusst sein und gemäß ihrer Verantwortung in der Schaffung von Öffentlichkeit und öffentlicher Meinung bewusst handeln.“

Hier ein „Werkzeugkasten“ mit allen in diesem Fokus genannten Tools und deren Links.

 

 

nach oben

Weitere aktuelle Beiträge

Meta ignoriert Transparenzvorgaben

Leicht wahrnehmbar, unmittelbar erreichbar und ständig verfügbar: So müssen etwa Social-Media-Plattformen offenlegen, nach welchen Kriterien sie Inhalte auswählen, anzeigen und sortieren. Auch der Einsatz von Algorithmen muss verständlich erklärt werden. Das schreibt der Medienstaatsvertrag vor. Weil Facebook sich nicht daran hielt, griff die Medienaufsicht ein. Doch gegen die Beanstandung klagt der Meta-Konzern. Vor Gericht geht es um grundsätzliche Rechtsfragen.
mehr »

Arbeit und Ausbeutung im Dokumentarfilm

Am Anfang des Symposiums der Dokumentarfilminitiative dfi im Filmbüro NW stand die Frage nach Begrifflichkeiten: Was gilt als Arbeit, wie prägt sie Leben und Alltag? Wer bestimmt, was produktiv ist? In einem Programm aus Vorträgen, Panels, Screenings und Filmgesprächen wurde unter verschiedenen Schwerpunktsetzungen diskutiert. Parallel ging es darum, wie der Dokumentarfilm Arbeit abbildet, verhandelt und dadurch erst sichtbar macht.
mehr »

Superreiche gefährden die Demokratie

Günter Wallraff, Sabine Leutheusser-Schnarrenberger, Gabor Steingart und Gesine Schwan – sie kamen diese Woche auf dem Kölner Forum für Journalismuskritik zusammen, um den Stand der Dinge zu besprechen: „Was bleibt von der Freiheit? Wenn Mächtige unsere Welt neu ordnen.“ Fazit: Nachgeben ist keine Option.
mehr »

Medien vor radikalen Veränderungen

Was bislang als ein nicht näher beschriebenes Szenario durch die Nachrichten geisterte, konkretisiert sich nun in Zahlen. Gerade einmal 38 Prozent der Verlags- und Medienhäuser blicken zuversichtlich auf das neue Jahr. Das geht aus dem gerade veröffentlichten Trend-Report 2026 des Reuters Institute for the Study of Journalism der Universität Oxford hervor.
mehr »