Ethische Abwägungen

# krassmedial: Julia Meisner von der Gesellschaft für Informatik sprach über "Ethik und Handarbeit" Foto: Charles Yunck

Redaktionen, die Künstliche Intelligenz (KI) nutzen, sollten ethische Verantwortung als „grundlegende Bedingung für gute gesellschaftliche Arbeit begreifen“, rät Julia Meisner, die bei #krassmedial über „Ethik bleibt Handarbeit“ referierte. Sie leitet bei der Gesellschaft für Informatik ein Projekt zur ethischen KI-Entwicklung und erläuterte, wie Medienhäuser und Redaktionen KI-Tools verantwortungsvoll gegenüber Öffentlichkeit und Mitarbeitenden nutzen können.

Meisner berichtete, die Zahl gemeldeter Fälle von missbräuchlicher KI-Anwendung wie Deep Fakes sei seit 2012 um das 26fache gestiegen und das Interesse an einer Ethik für Künstliche Intelligenz wachse. Verschiedene Unternehmen und Organisationen hätten dazu Leitlinien entwickelt. Als Positivbeispiel nannte sie die KI-Ethik-Leitlinien von ver.di, die Anfang 2020 bereits wichtige Aspekte adressierten – etwa die Erweiterung der Handlungs- und Gestaltungsspielräume von Beschäftigten, die der Deutsche Ethikrat erst 2023 aufgriff.

Bei Entwicklung und Nutzung von Künstlicher Intelligenz in der Medienproduktion gebe es sowohl positive als auch negative ethische Folgen, so Meisner, die auf sozialer Ebene Desinformation, Falschnachrichten und plausiblen Unsinn als „vermutlich am brisantesten und bekanntesten“ bezeichnete. So illustrierte der „Spiegel“ im Juli dieses Jahres einen Beitrag über Künstliche Intelligenz mit einem KI-generierten Foto von Ex-Kanzlerin Merkel beim Baden und fragte, ob KI neue Realitäten erschafft, die „wir nicht mehr von der echten Welt unterscheiden können“.

An den Pressekodex halten

Um diese verheerenden sozialen Folgen für die Gesellschaft zu verhindern, müssten ethisch verantwortungsvolle Medienschaffende sich beim KI-Einsatz an den Pressekodex halten. Dieser verlangt unter anderem Wahrhaftigkeit, Sorgfalt, Richtigstellung und Nichtdiskriminierung, um auch einer verzerrten Berichterstattung durch die „Reproduktion sexistischer, rassistischer und kulturalistischer Stereotypen“ entgegen zu wirken. Ethik für KI-Anwendungen könne allerdings „nicht universell implementiert werden, um jegliche Formen von Diskriminierung und kognitiver Verzerrung zu vermeiden“, erläuterte Meisner und plädierte für einen multiperspektivischen und diversitätsbewussten Aushandlungsprozess.

Auch auf sozio-ökonomischer Ebene ist der KI-Einsatz folgenreich und erfordert ethisch bewusste Abwägungen. Einerseits könnten „kleine Redaktionen bei Recherche und Administration entlastet“ werden, aber andererseits bestehe die Gefahr, dass Unternehmen auf „automatisierte Lösungen statt auf teure menschliche Arbeitskräfte setzen“, wogegen jüngst US-amerikanische Drehbuchautor*innen streikten. Die globale Ungleichheit werde verstärkt durch die Abhängigkeit von den KI-Systemen weniger US-Firmen und prekäre Arbeit wie klick-work oder Labeling von Gewalt durch Menschen im Globalen Süden. Auf der anderen Seite erweitere der Einsatz von Künstlicher Intelligenz aber auch „die Teilhabe an der Content-Produktion“ und ermögliche „multilinguale und personifizierte Ansprache“.

Neue Kompetenzen erwerben

Bei den ökologischen Implikationen der KI-Nutzung verwies Meisner auf den enormen Energiebedarf der Hardware, etwa in Rechenzentren. So verbrauche ChatGPT etwa viermal so viel Strom wie die Google-Suchmaschine und stoße pro Jahr so viel CO2 aus wie 123 Benziner-Autos. Deshalb sollten auch Medienschaffende abwägen: „Nur weil ich KI-unterstützt viel mehr produzieren kann, muss ich das auch?“

Meisner betonte: Journalist*innen müssten neue Kompetenzen erwerben, um auch bei der Nutzung von KI-Tools ethisch verantwortlich entscheiden zu können. Es gelte, „automatisiert erstellte Texte auf korrekte Fakten und Zitation, Verzerrungen und Logik“ zu überprüfen sowie die „generierten Ergebnisse“ einzuordnen und etwa zu erklären, warum Meldungen falsch sind. „Voraussetzung dafür sei „technisches Wissen, zum Beispiel: wie funktionieren (Sprach-)Modelle und Prompt Engineering“, d. h. die Aufgabenbeschreibung für eine KI wie ChatGPT. Meisner betonte die Verantwortung gegenüber Rezipierenden: „KI ist nicht nur Tool für den journalistischen Arbeitsprozess, sondern auch Berichterstattungsthema. Die Bevölkerung soll KI aktiv, differenziert und faktenbasiert wahrnehmen.“

Meisner resümierte: „Wenn Medienmacher*innen und Redaktionen KI nutzen, sollten sie sich der Folgen bewusst sein und gemäß ihrer Verantwortung in der Schaffung von Öffentlichkeit und öffentlicher Meinung bewusst handeln.“

Hier ein „Werkzeugkasten“ mit allen in diesem Fokus genannten Tools und deren Links.

 

 

nach oben

Weitere aktuelle Beiträge

Gleichstellungsbeauftragte im ÖRR stärken

Das Bekenntnis zur Gleichstellung im öffentlich-rechtlichen Rundfunk zeigt sich unter anderem im Vorhandensein von Gleichstellungsbeauftragten. Grundlage ist die jeweils entsprechende gesetzliche Regelung der Bundesländer, in denen die Sender angesiedelt sind. Gleichstellungsbeauftragte sollen nach dem Bundesgleichstellungsgesetz (BGleiG), die Beschäftigten vor Benachteiligungen aufgrund ihres Geschlechtes zu schützen und das Allgemeine Gleichbehandlungsgesetz durchzusetzen.
mehr »

Safer reporting: Schutzkodex auf der re:publica

Das gesellschaftliche Klima ist eines der ganz großen Themen auf der diesjährigen Digitalmesse re:publica in Berlin. Auch Journalist*innen sind zunehmend Hass und Bedrohungen ausgesetzt – bei der Recherche, auf Demos oder in sozialen Medien. Das gefährdet nicht nur die Betroffenen, sondern auch die Pressefreiheit insgesamt.  Dagegen hilft der Schutzkodex.
mehr »

„Das Arbeitsklima ist extrem hart“

In der Nahaufnahme für das Jahr 2025 beschäftigt sich Reporter ohne Grenzen (RSF) unter anderem mit der deutschen Berichterstattung zum Gaza-Krieg nach dem Überfall der Hamas auf Israel. Von der Organisation befragte Journalist*innen sprechen über massiven Druck, Selbstzensur und erodierende journalistische Standards. Ein Interview mit Katharina Weiß, Referentin bei Reporter ohne Grenzen Deutschland.
mehr »

AfD-Einstufung zwingt Rundfunkgremien zum Handeln

Das zunächst unter Verschluss gehaltene Gutachten des Verfassungsschutzes, welches zur Einstufung der Partei Alternative für Deutschland (AfD) als „gesichert rechtsextremistische Partei“ führte, wurde nunmehr durch Medien veröffentlicht. Innenminister Dobrindt ließ zunächst offen, inwiefern juristische Schritte gegen die Veröffentlichung geplant seien. Christoph Schmitz-Dethlefsen, für Medien zuständiges Mitglied im Bundesvorstand von ver.di, begrüßt, dass nun öffentlich über das Zustandekommen der Einstufung diskutiert werden kann.
mehr »