KI-Sprachmodelle produzieren mittlerweile Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden, vor allem über Wetter, Sport oder Börsenkurse. Bilder mit Symbolen oder Collagen werden von KI erstellt. Es sind Bereiche, für die zahlreiche gut strukturierte Daten vorliegen. Eine KI kann daraus einfache Textbausteine oder Bilder generieren. Dennoch ist der Einsatz von KI im journalistischen Bereich bislang ungeregelt. Einige Medienhäuser erarbeiten nun Selbstverpflichtungen zum Umgang mit KI in den Redaktionen. In Deutschland sind es nur wenige.
In welchen Genres der Einsatz von KI besonders unauffällig geschehen kann, zeigte Anfang des Jahres der Burda-Verlag. Seine Sonderausgabe der Zeitschrift „Lisa Kochen & Backen“ mit dem Titel „99 Geniale Pastarezepte für Genießer“ wurde offenbar komplett von KI verfasst. Gekennzeichnet war das allerdings nicht. Erst auf Anfrage der SZ habe der Verlag bestätigt, dass das Heft „mithilfe von ChatGPT und Midjourney erstellt“ wurde. Weder unter den Rezepten noch an einer anderen Stelle war das sichtbar gemacht worden.
Die Ethik hinter der Technik
In den allermeisten Redaktionen werden schon seit längerer Zeit Werkzeuge verwendet, die KI enthalten. Übersetzungen, Transkriptionen oder Internetrecherche kommen meist nicht ohne aus. Doch wenn generative KI verwendet wird, sollten besondere Transparenzkriterien gelten. Generative künstliche Intelligenz ist KI, die verschiedene Arten von Inhalten nach Wunsch oder prompt generieren kann. KI-Systeme wie das Sprachmodell ChatGPT basieren auf solchen generativen Modellen, häufig sogenannten Large Language Models (LLMs), die ausgehend von den Daten, mit denen sie trainiert wurden, neue Inhalte erzeugen können. Ob mit diesen Tools Überschriften erstellt, Texte generiert oder ein Brainstorming angestoßen wird, bleibt den Nutzer*innen überlassen. Möglich ist alles. Immer mehr Verlage, Medienhäuser oder Rundfunkanstalten, wie Ippen oder der Spiegel entschließen sich daher Richtlinien zu formulieren, die den praktischen Umgang mit KI regeln sollen.
Mehrwert für Regionen
Einer der ersten war der Bayerische Rundfunk (BR), der bereits 2020 seine KI-Richtlinien veröffentlichte. Dort sind in erster Linie ethische Grundannahmen formuliert, die auch drei Jahre später und nach der Veröffentlichung von ChatGPT, noch immer aktuell sind. Darin heißt es beispielsweise: „Unseren Nutzer*innen machen wir transparent, welche Technologien wir einsetzen, welche Daten wir erheben und welche Redaktionen oder Partner die Verantwortung dafür tragen.“
Uli Köppen leitet das AI + Automation Lab im Bayerischen Rundfunk. Es soll Methoden wie Automatisierung und Machine Learning für den BR, seine Produkte und sein Publikum nutzbar machen. Köppen hat die Richtlinien mit formuliert und entwickelt sie weiter. Über den praktischen Einsatz neuer Technologien sagt sie M: „Wir nutzen KI und Automatisierung vor allem, um Neues zu entwickeln, Content zu versionisieren und zu regionalisieren. Dazu entwickeln wir eigene Tools. Wir entwickeln aber auch Tools für investigative Recherchen im Rahmen unseres Labs.“
Dabei stelle sie und ihr Team sich immer wieder aufs Neue die Frage „Bietet die Technologie den Mitarbeitenden im BR und unseren Nutzer*innen tatsächlich einen Mehrwert?“ Als Beispiel nennt Köppen den Corona-Daten-Editor. „Mit diesem Tool haben wir in Zeiten der Pandemie aus größeren Datenmengen sehr regionale Informationsangebote machen können. Ein Format, dass es so ohne Automatisierung und Datenauswertung nicht gegeben hätte. „Denn allein mit menschlicher Arbeitskraft wäre das kaum möglich gewesen.“
Die Paste ist aus der Tube
Diese neuen Möglichkeiten sieht auch Sebastian Raabe, Head of Sales Digital Platforms bei der dpa. Für ihn lohnt es sich insbesondere „auf die Chancen zu schauen, denn die Entwicklung wird weitergehen. Wir sollten sie gestalten, statt sie zu verpassen. Sicherlich besteht auch Regulierungsbedarf, doch klar ist auch: Die Paste ist aus der Tube.“ Daher hat Raabe mit seinen Kolleg*innen bei der dpa eine Taskforce gegründet, „um möglichst viele Stimmen zum Thema KI hören zu können.“ M gegenüber erklärt er: „Dazu konnten sich die Kolleg*innen per Mail bei uns melden und Fragen stellen. Am häufigsten ging es um die Befugnisse. Also wann darf ich wo welche KI nutzen. Für uns ist es wichtig, dass die Leute die Technik im Rahmen unserer Guidelines ausprobieren können. Wir haben dafür dann einen internen Kanal eingerichtet. Die generative KI dort ist behilflich bei Teasern oder Überschriften. Sie ist aber nicht mit dem Internet verbunden. Künftig sollen die Ressorts diese KI dann nutzen und ab dem kommenden Jahr soll sie im neuen Redaktionssystem eingebaut werden.“ Die Guidelines der dpa stammen aus dem April dieses Jahres. Sie sollen Mitarbeiter*innen ermutigen, sich mit der neuen Technologie auseinanderzusetzen, damit zu experimentieren. Sie setzen aber auch Grenzen. „In der Produktion nutzen wir bisher keine generative KI. Vor allem bei den Bildern haben wir den Einsatz aus urheberrechtlichen Gründen erstmal ganz untersagt,“ sagt Raabe.
Beiden Häusern ist – bei aller Affinität zur Digitalisierung – die Autonomie journalistischer Arbeit weiterhin besonders wichtig. Abnahmeprinzipien, Faktchecking und redaktionelle Verantwortung wollen sie nicht aus der menschlichen Hand geben. Auch künftig sei der Mensch der entscheidende Faktor und „das herausgehobene Qualitätsmerkmal journalistischer Arbeit“, schreibt Raabe in den dpa-Guidelines. „Das Siegel ist nicht „Made by KI“, sondern „Made by a Human.“
Die Zusammenarbeit mit Betriebs- und Personalräten bei der Erarbeitung von KI-Richtlinien in Medienhäusern scheint indes nicht systematisiert zu sein. Qua Gesetz ist jeder Arbeitgeber verpflichtet, den Betriebsrat über die Einführung neuer Technologien zu informieren und ihn einzubeziehen. Das unterliegt den Mitbestimmungsrechten. Der Betriebsrat kann beispielsweise Vorschläge zur Beschäftigungssicherung unterbreiten, Beschäftigte befragen und Sachverständige heranziehen sowie berufliche Weiterbildung einfordern. Schließlich birgt die Technik neue Möglichkeiten zur Überwachung und Leistungskontrolle von Mitarbeiter*innen.
Für die Zukunft, da sind sich die Expert*innen sicher, geht kein Weg mehr an KI in den Redaktionen vorbei. Sie müssen aber transparent deklariert und rechtskonform sein. Zu den Herausforderungen beim Einsatz für Medien gehören auch die Identifizierung und Minimierung von Biases und die Transparenz von zugrundeliegenden Datensets, mit denen KI-Tools trainiert werden. Wie man sie einsetzt und wie man Berufsbilder an die neuen Möglichkeiten anpasst, solle aber diskursiv entwickelt werden. „Künftig wird es für Verlage und Medienhäuser wichtig sein, neue Rollen für den Umgang mit KI zu definieren. Das betrifft Jobbeschreibungen wie auch Guidelines“, sagt Köppel.
Next Level KI
Doch auch alte Rollen könnten bald wieder eine Rolle spielen. Die Reporterfabrik in Hamburg, hat kürzlich eine eigene KI gebaut, die den verstorbenen Publizisten Wolf Schneider simuliert. Das Sprachmodell soll dabei helfen, sich nicht zu weit von der Norm zu entfernen, die im Journalismus festlegt, was als „gute Sprache“ gilt. Die KI soll nicht nur Nachrichten und Kommentare redigieren, sondern auch Überschriften und Teaser formulieren und entsprechend den Regeln bestimmter Textgattungen auch Verbesserungsvorschläge machen, inklusive ausführlicher Begründung für die Korrekturen.