In der Praxis angekommen

Das Arbeiten mit generativer KI im Journalismus braucht Regeln Foto [M]: shutterstock/kovop

KI-Sprachmodelle produzieren mittlerweile Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden, vor allem über Wetter, Sport oder Börsenkurse. Bilder mit Symbolen oder Collagen werden von KI erstellt. Es sind Bereiche, für die zahlreiche gut strukturierte Daten vorliegen. Eine KI kann daraus einfache Textbausteine oder Bilder generieren. Dennoch ist der Einsatz von KI im journalistischen Bereich bislang ungeregelt. Einige Medienhäuser erarbeiten nun Selbstverpflichtungen zum Umgang mit KI in den Redaktionen. In Deutschland sind es nur wenige.

In welchen Genres der Einsatz von KI besonders unauffällig geschehen kann, zeigte Anfang des Jahres der Burda-Verlag. Seine Sonderausgabe der Zeitschrift „Lisa Kochen & Backen“ mit dem Titel „99 Geniale Pastarezepte für Genießer“ wurde offenbar komplett von KI verfasst. Gekennzeichnet war das allerdings nicht. Erst auf Anfrage der SZ habe der Verlag bestätigt, dass das Heft „mithilfe von ChatGPT und Midjourney erstellt“ wurde. Weder unter den Rezepten noch an einer anderen Stelle war das sichtbar gemacht worden.

Die Ethik hinter der Technik

In den allermeisten Redaktionen werden schon seit längerer Zeit Werkzeuge verwendet, die KI enthalten. Übersetzungen, Transkriptionen oder Internetrecherche kommen meist nicht ohne aus. Doch wenn generative KI verwendet wird, sollten besondere Transparenzkriterien gelten. Generative künstliche Intelligenz ist KI, die verschiedene Arten von Inhalten nach Wunsch oder prompt generieren kann. KI-Systeme wie das Sprachmodell ChatGPT basieren auf solchen generativen Modellen, häufig sogenannten Large Language Models (LLMs), die ausgehend von den Daten, mit denen sie trainiert wurden, neue Inhalte erzeugen können. Ob mit diesen Tools Überschriften erstellt, Texte generiert oder ein Brainstorming angestoßen wird, bleibt den Nutzer*innen überlassen. Möglich ist alles. Immer mehr Verlage, Medienhäuser oder Rundfunkanstalten, wie Ippen oder der Spiegel entschließen sich daher Richtlinien zu formulieren, die den praktischen Umgang mit KI regeln sollen.

Mehrwert für Regionen

Einer der ersten war der Bayerische Rundfunk (BR), der bereits 2020 seine KI-Richtlinien veröffentlichte. Dort sind in erster Linie ethische Grundannahmen formuliert, die auch drei Jahre später und nach der Veröffentlichung von ChatGPT, noch immer aktuell sind. Darin heißt es beispielsweise: „Unseren Nutzer*innen machen wir transparent, welche Technologien wir einsetzen, welche Daten wir erheben und welche Redaktionen oder Partner die Verantwortung dafür tragen.“

Uli Köppen leitet das AI + Automation Lab im Bayerischen Rundfunk. Es soll Methoden wie Automatisierung und Machine Learning für den BR, seine Produkte und sein Publikum nutzbar machen. Köppen hat die Richtlinien mit formuliert und entwickelt sie weiter. Über den praktischen Einsatz neuer Technologien sagt sie M: „Wir nutzen KI und Automatisierung vor allem, um Neues zu entwickeln, Content zu versionisieren und zu regionalisieren. Dazu entwickeln wir eigene Tools. Wir entwickeln aber auch Tools für investigative Recherchen im Rahmen unseres Labs.“

Dabei stelle sie und ihr Team sich immer wieder aufs Neue die Frage „Bietet die Technologie den Mitarbeitenden im BR und unseren Nutzer*innen tatsächlich einen Mehrwert?“ Als Beispiel nennt Köppen den Corona-Daten-Editor. „Mit diesem Tool haben wir in Zeiten der Pandemie aus größeren Datenmengen sehr regionale Informationsangebote machen können. Ein Format, dass es so ohne Automatisierung und Datenauswertung nicht gegeben hätte. „Denn allein mit menschlicher Arbeitskraft wäre das kaum möglich gewesen.“

Die Paste ist aus der Tube

Diese neuen Möglichkeiten sieht auch Sebastian Raabe, Head of Sales Digital Platforms bei der dpa. Für ihn lohnt es sich insbesondere „auf die Chancen zu schauen, denn die Entwicklung wird weitergehen. Wir sollten sie gestalten, statt sie zu verpassen. Sicherlich besteht auch Regulierungsbedarf, doch klar ist auch: Die Paste ist aus der Tube.“ Daher hat Raabe mit seinen Kolleg*innen bei der dpa eine Taskforce gegründet, „um möglichst viele Stimmen zum Thema KI hören zu können.“ M gegenüber erklärt er: „Dazu konnten sich die Kolleg*innen per Mail bei uns melden und Fragen stellen. Am häufigsten ging es um die Befugnisse. Also wann darf ich wo welche KI nutzen. Für uns ist es wichtig, dass die Leute die Technik im Rahmen unserer Guidelines ausprobieren können. Wir haben dafür dann einen internen Kanal eingerichtet. Die generative KI dort ist behilflich bei Teasern oder Überschriften. Sie ist aber nicht mit dem Internet verbunden. Künftig sollen die Ressorts diese KI dann nutzen und ab dem kommenden Jahr soll sie im neuen Redaktionssystem eingebaut werden.“ Die Guidelines der dpa stammen aus dem April dieses Jahres. Sie sollen Mitarbeiter*innen ermutigen, sich mit der neuen Technologie auseinanderzusetzen, damit zu experimentieren. Sie setzen aber auch Grenzen. „In der Produktion nutzen wir bisher keine generative KI. Vor allem bei den Bildern haben wir den Einsatz aus urheberrechtlichen Gründen erstmal ganz untersagt,“ sagt Raabe.

Hauptstadtbüro der Deutschen Presseagentur in der Berliner Markgrafenstraße Foto: Christian von Polentz

Beiden Häusern ist – bei aller Affinität zur Digitalisierung – die Autonomie journalistischer Arbeit weiterhin besonders wichtig. Abnahmeprinzipien, Faktchecking und redaktionelle Verantwortung wollen sie nicht aus der menschlichen Hand geben. Auch künftig sei der Mensch der entscheidende Faktor und „das herausgehobene Qualitätsmerkmal journalistischer Arbeit“, schreibt Raabe in den dpa-Guidelines. „Das Siegel ist nicht „Made by KI“, sondern „Made by a Human.“

Die Zusammenarbeit mit Betriebs- und Personalräten bei der Erarbeitung von KI-Richtlinien in Medienhäusern scheint indes nicht systematisiert zu sein. Qua Gesetz ist jeder Arbeitgeber verpflichtet, den Betriebsrat über die Einführung neuer Technologien zu informieren und ihn einzubeziehen. Das unterliegt den Mitbestimmungsrechten. Der Betriebsrat kann beispielsweise Vorschläge zur Beschäftigungssicherung unterbreiten, Beschäftigte befragen und Sachverständige heranziehen sowie berufliche Weiterbildung einfordern. Schließlich birgt die Technik neue Möglichkeiten zur Überwachung und Leistungskontrolle von Mitarbeiter*innen.

Für die Zukunft, da sind sich die Expert*innen sicher, geht kein Weg mehr an KI in den Redaktionen vorbei. Sie müssen aber transparent deklariert und rechtskonform sein. Zu den Herausforderungen beim Einsatz für Medien gehören auch die Identifizierung und Minimierung von Biases und die Transparenz von zugrundeliegenden Datensets, mit denen KI-Tools trainiert werden. Wie man sie einsetzt und wie man Berufsbilder an die neuen Möglichkeiten anpasst, solle aber diskursiv entwickelt werden. „Künftig wird es für Verlage und Medienhäuser wichtig sein, neue Rollen für den Umgang mit KI zu definieren. Das betrifft Jobbeschreibungen wie auch Guidelines“, sagt Köppel.

Next Level KI

Doch auch alte Rollen könnten bald wieder eine Rolle spielen. Die Reporterfabrik in Hamburg, hat kürzlich eine eigene KI gebaut, die den verstorbenen Publizisten Wolf Schneider simuliert. Das Sprachmodell soll dabei helfen, sich nicht zu weit von der Norm zu entfernen, die im Journalismus festlegt, was als „gute Sprache“ gilt. Die KI soll nicht nur Nachrichten und Kommentare redigieren, sondern auch Überschriften und Teaser formulieren und entsprechend den Regeln bestimmter Textgattungen auch Verbesserungsvorschläge machen, inklusive ausführlicher Begründung für die Korrekturen.

 

 

nach oben

Weitere aktuelle Beiträge

Spanien: Als Terrorist beschuldigt

Der katalanische Investigativjournalist Jesús Rodríguez hat Spanien verlassen, um ins Exil in die Schweiz zu gehen. Ihm wird von Ermittlungsrichter Manuel García-Castellón die Unterstützung terroristischer Akte vorgeworfen. Die Schweiz sieht im Vorgehen der spanischen Justiz gegen den Katalanen einen „politischen Charakter“.
mehr »

Preis für behinderte Medienschaffende

Zum zweiten Mal schreibt in diesem Jahr die gewerkschaftsnahe Otto Brenner Stiftung zwei Preise und Stipendien für Journalist*innen mit Behinderung aus. Damit soll „ein klares Signal für die Förderung von Diversität als unverzichtbaren Wert in unserer demokratischen Gesellschaft“ gesetzt werden, sagt Jupp Legrand, Geschäftsführer der Stiftung. 
mehr »

KI darf keine KI-Texte nutzen

Die Diskussion über Möglichkeiten und Grenzen der KI im eigenen Metier wird Journalist*innen noch lange weiter beschäftigen. Bei der jüngsten ver.di-KI-Online-Veranstaltung ging es um den Anspruch an Gute Arbeit und Qualität. ver.di hat zum Einsatz von KI Positionen und ethische Leitlinien entwickelt. Bettina Hesse, Referentin für Medienpolitik, stellte das Papier vor, das die Bundesfachgruppe Medien, Journalismus und Film zum Einsatz von generativer Künstlicher Intelligenz im Journalismus erarbeitet hat.
mehr »

Unabhängige Medien in Gefahr

Beim ver.di-Medientag Sachsen, Sachsen-Anhalt und Thüringen diskutierten am 20. April rund 50 Teilnehmende im Zeitgeschichtlichen Forum in Leipzig die aktuelle Entwicklungen in der Medienlandschaft, die Diversität in den Medien und Angriffe auf Medienschaffende. Das alles auch vor dem Hintergrund, dass bei den kommenden Landtagswahlen in Thüringen, Sachsen und Brandenburg die AfD laut Umfragen stark profitiert. 
mehr »