In der Praxis angekommen

Das Arbeiten mit generativer KI im Journalismus braucht Regeln Foto [M]: shutterstock/kovop

KI-Sprachmodelle produzieren mittlerweile Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden, vor allem über Wetter, Sport oder Börsenkurse. Bilder mit Symbolen oder Collagen werden von KI erstellt. Es sind Bereiche, für die zahlreiche gut strukturierte Daten vorliegen. Eine KI kann daraus einfache Textbausteine oder Bilder generieren. Dennoch ist der Einsatz von KI im journalistischen Bereich bislang ungeregelt. Einige Medienhäuser erarbeiten nun Selbstverpflichtungen zum Umgang mit KI in den Redaktionen. In Deutschland sind es nur wenige.

In welchen Genres der Einsatz von KI besonders unauffällig geschehen kann, zeigte Anfang des Jahres der Burda-Verlag. Seine Sonderausgabe der Zeitschrift „Lisa Kochen & Backen“ mit dem Titel „99 Geniale Pastarezepte für Genießer“ wurde offenbar komplett von KI verfasst. Gekennzeichnet war das allerdings nicht. Erst auf Anfrage der SZ habe der Verlag bestätigt, dass das Heft „mithilfe von ChatGPT und Midjourney erstellt“ wurde. Weder unter den Rezepten noch an einer anderen Stelle war das sichtbar gemacht worden.

Die Ethik hinter der Technik

In den allermeisten Redaktionen werden schon seit längerer Zeit Werkzeuge verwendet, die KI enthalten. Übersetzungen, Transkriptionen oder Internetrecherche kommen meist nicht ohne aus. Doch wenn generative KI verwendet wird, sollten besondere Transparenzkriterien gelten. Generative künstliche Intelligenz ist KI, die verschiedene Arten von Inhalten nach Wunsch oder prompt generieren kann. KI-Systeme wie das Sprachmodell ChatGPT basieren auf solchen generativen Modellen, häufig sogenannten Large Language Models (LLMs), die ausgehend von den Daten, mit denen sie trainiert wurden, neue Inhalte erzeugen können. Ob mit diesen Tools Überschriften erstellt, Texte generiert oder ein Brainstorming angestoßen wird, bleibt den Nutzer*innen überlassen. Möglich ist alles. Immer mehr Verlage, Medienhäuser oder Rundfunkanstalten, wie Ippen oder der Spiegel entschließen sich daher Richtlinien zu formulieren, die den praktischen Umgang mit KI regeln sollen.

Mehrwert für Regionen

Einer der ersten war der Bayerische Rundfunk (BR), der bereits 2020 seine KI-Richtlinien veröffentlichte. Dort sind in erster Linie ethische Grundannahmen formuliert, die auch drei Jahre später und nach der Veröffentlichung von ChatGPT, noch immer aktuell sind. Darin heißt es beispielsweise: „Unseren Nutzer*innen machen wir transparent, welche Technologien wir einsetzen, welche Daten wir erheben und welche Redaktionen oder Partner die Verantwortung dafür tragen.“

Uli Köppen leitet das AI + Automation Lab im Bayerischen Rundfunk. Es soll Methoden wie Automatisierung und Machine Learning für den BR, seine Produkte und sein Publikum nutzbar machen. Köppen hat die Richtlinien mit formuliert und entwickelt sie weiter. Über den praktischen Einsatz neuer Technologien sagt sie M: „Wir nutzen KI und Automatisierung vor allem, um Neues zu entwickeln, Content zu versionisieren und zu regionalisieren. Dazu entwickeln wir eigene Tools. Wir entwickeln aber auch Tools für investigative Recherchen im Rahmen unseres Labs.“

Dabei stelle sie und ihr Team sich immer wieder aufs Neue die Frage „Bietet die Technologie den Mitarbeitenden im BR und unseren Nutzer*innen tatsächlich einen Mehrwert?“ Als Beispiel nennt Köppen den Corona-Daten-Editor. „Mit diesem Tool haben wir in Zeiten der Pandemie aus größeren Datenmengen sehr regionale Informationsangebote machen können. Ein Format, dass es so ohne Automatisierung und Datenauswertung nicht gegeben hätte. „Denn allein mit menschlicher Arbeitskraft wäre das kaum möglich gewesen.“

Die Paste ist aus der Tube

Diese neuen Möglichkeiten sieht auch Sebastian Raabe, Head of Sales Digital Platforms bei der dpa. Für ihn lohnt es sich insbesondere „auf die Chancen zu schauen, denn die Entwicklung wird weitergehen. Wir sollten sie gestalten, statt sie zu verpassen. Sicherlich besteht auch Regulierungsbedarf, doch klar ist auch: Die Paste ist aus der Tube.“ Daher hat Raabe mit seinen Kolleg*innen bei der dpa eine Taskforce gegründet, „um möglichst viele Stimmen zum Thema KI hören zu können.“ M gegenüber erklärt er: „Dazu konnten sich die Kolleg*innen per Mail bei uns melden und Fragen stellen. Am häufigsten ging es um die Befugnisse. Also wann darf ich wo welche KI nutzen. Für uns ist es wichtig, dass die Leute die Technik im Rahmen unserer Guidelines ausprobieren können. Wir haben dafür dann einen internen Kanal eingerichtet. Die generative KI dort ist behilflich bei Teasern oder Überschriften. Sie ist aber nicht mit dem Internet verbunden. Künftig sollen die Ressorts diese KI dann nutzen und ab dem kommenden Jahr soll sie im neuen Redaktionssystem eingebaut werden.“ Die Guidelines der dpa stammen aus dem April dieses Jahres. Sie sollen Mitarbeiter*innen ermutigen, sich mit der neuen Technologie auseinanderzusetzen, damit zu experimentieren. Sie setzen aber auch Grenzen. „In der Produktion nutzen wir bisher keine generative KI. Vor allem bei den Bildern haben wir den Einsatz aus urheberrechtlichen Gründen erstmal ganz untersagt,“ sagt Raabe.

Hauptstadtbüro der Deutschen Presseagentur in der Berliner Markgrafenstraße Foto: Christian von Polentz

Beiden Häusern ist – bei aller Affinität zur Digitalisierung – die Autonomie journalistischer Arbeit weiterhin besonders wichtig. Abnahmeprinzipien, Faktchecking und redaktionelle Verantwortung wollen sie nicht aus der menschlichen Hand geben. Auch künftig sei der Mensch der entscheidende Faktor und „das herausgehobene Qualitätsmerkmal journalistischer Arbeit“, schreibt Raabe in den dpa-Guidelines. „Das Siegel ist nicht „Made by KI“, sondern „Made by a Human.“

Die Zusammenarbeit mit Betriebs- und Personalräten bei der Erarbeitung von KI-Richtlinien in Medienhäusern scheint indes nicht systematisiert zu sein. Qua Gesetz ist jeder Arbeitgeber verpflichtet, den Betriebsrat über die Einführung neuer Technologien zu informieren und ihn einzubeziehen. Das unterliegt den Mitbestimmungsrechten. Der Betriebsrat kann beispielsweise Vorschläge zur Beschäftigungssicherung unterbreiten, Beschäftigte befragen und Sachverständige heranziehen sowie berufliche Weiterbildung einfordern. Schließlich birgt die Technik neue Möglichkeiten zur Überwachung und Leistungskontrolle von Mitarbeiter*innen.

Für die Zukunft, da sind sich die Expert*innen sicher, geht kein Weg mehr an KI in den Redaktionen vorbei. Sie müssen aber transparent deklariert und rechtskonform sein. Zu den Herausforderungen beim Einsatz für Medien gehören auch die Identifizierung und Minimierung von Biases und die Transparenz von zugrundeliegenden Datensets, mit denen KI-Tools trainiert werden. Wie man sie einsetzt und wie man Berufsbilder an die neuen Möglichkeiten anpasst, solle aber diskursiv entwickelt werden. „Künftig wird es für Verlage und Medienhäuser wichtig sein, neue Rollen für den Umgang mit KI zu definieren. Das betrifft Jobbeschreibungen wie auch Guidelines“, sagt Köppel.

Next Level KI

Doch auch alte Rollen könnten bald wieder eine Rolle spielen. Die Reporterfabrik in Hamburg, hat kürzlich eine eigene KI gebaut, die den verstorbenen Publizisten Wolf Schneider simuliert. Das Sprachmodell soll dabei helfen, sich nicht zu weit von der Norm zu entfernen, die im Journalismus festlegt, was als „gute Sprache“ gilt. Die KI soll nicht nur Nachrichten und Kommentare redigieren, sondern auch Überschriften und Teaser formulieren und entsprechend den Regeln bestimmter Textgattungen auch Verbesserungsvorschläge machen, inklusive ausführlicher Begründung für die Korrekturen.

 

 

nach oben

Weitere aktuelle Beiträge

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

Rundfunkreform mit vielen Fragezeichen

Bis zuletzt hatten die öffentlich-rechtlichen Anstalten auf ein Ende der Blockade einer Beitragserhöhung durch die Ministerpräsidenten der Länder gehofft. Die Verweigerungshaltung der Politik ließ ihnen am Ende keine Wahl: Am 19. November kündigten ARD und ZDF eine Klage beim Bundesverfassungsgericht an, um ihren Anspruch auf die von der Kommission zur Ermittlung des Finanzbedarfs (KEF) errechnete Empfehlung einer Beitragserhöhung um 58 Cent auf 18,94 Euro monatlich durchzusetzen.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »