Ein „Assistenzsystem“ für den Journalismus

Christina Elmer, Journalistin und Professorin für Digitalen Journalismus und Datenjournalismus an der TU Dortmund, Steffen Grimberg, Medienjournalist und Vorsitzender des DJV Berlin-Brandenburg, und Katharina Zweig, Professorin für Informatik an der TU Kaiserslautern (v.l.n.r.) diskutieren auf der re:publica „Cash“ 2023. Foto: Sarah Schaefer

Für klare Regeln beim Einsatz von KI – Kennzeichnung notwendig

Sind KI-Modelle eine praktische Unterstützung für Journalist*innen oder bedrohen sie den ganzen Berufsstand? Seit der Einführung von ChatGPT im vergangenen Jahr bewegen diese Fragen die Branche. Eine angenehm unaufgeregte Gesprächsrunde auf der diesjährigen re:publica kam zu dem Ergebnis: Der Sprachassistent kann den Journalismus durchaus besser machen. Dabei gelte es aber einiges zu beachten. Denn ChatGPT habe zwei entscheidende Nachteile, die sich Nutzer*innen dringend bewusst machen müssen.

Das größte Problem vorab: ChatGPT kann keine Fakten – zumindest noch nicht. Daran erinnerte Katharina Zweig gleich mehrfach. Die Professorin für Informatik an der TU Kaiserslautern präsentierte auf dem Podium einen Entscheidungsbaum, an dessen Anfang die Frage steht: „Muss der Text faktisch richtig sein?“ Falls ja: „Können Sie die Fakten überprüfen?“ Ist das nicht der Fall, folgt die dringende Empfehlung: Nicht verwenden. Ein grundlegendes Problem der KI – und das ist der zweite große Nachteil – sei die Art, wie sie mit den Nutzer*innen spreche: in Ich-Form, im „Brustton der Überzeugung“. Davor warnte auch Christina Elmer, Journalistin und Professorin für Digitalen Journalismus und Datenjournalismus an der TU Dortmund: „ChatGPT ist eloquent“. Das führe dazu, dass Menschen die KI grundsätzlich für kompetent halten, auch wenn sie falsche Dinge behaupte. Hier sei ein gesundes Misstrauen angebracht, das in den Redaktionen gezielt trainiert werden müsse.

Elmer zeigte sich dennoch aufgeschlossen: „ChatGPT kann den Journalismus besser machen“, sagte sie. Und zwar dann, wenn man die KI als „Assistenzsystem“ begreife, das beispielsweise dabei helfe, Überschriften zu finden oder Texte umzuschreiben. Auch im Bereich Datenjournalismus könne KI unterstützen, sagte Elmer. Sie erinnerte daran, dass KI schon längst Alltag in vielen Redaktionen sei – etwa bei der Übersetzung von Texten oder schlicht beim Googeln.

KI-Kompetenz gebe es vor allem in den größeren Redaktionen, sagte Steffen Grimberg, Medienjournalist und Vorsitzender des DJV Berlin-Brandenburg. „Den Kleineren muss man helfen.“ Im Lokalen etwa komme es oft auf einzelne Kolleg*innen an, die sich für das Thema interessieren und starkmachen. Wie auch die dju in ver.di fordert der DJV Regeln für die Kennzeichnung und den Einsatz von KI im Journalismus. Ein „Code of Conduct“ müsse künftig vorgeben, in welchen Fällen KI genutzt werden kann und wann nicht. Das Thema müsse in den Presse-kodex aufgenommen werden. „Es muss am Ende ein Mensch sein, der die Verantwortung hat. Wenn das nicht geht, sollte man es lassen“, sagte Grimberg. Sinnvolle Verhaltensregeln für den Umgang mit KI in Redaktionen gebe es bereits, etwa vom US-amerikanischen Magazin „Wired“.

Auch Katharina Zweig sprach sich für eine Kennzeichnung aus. Es brauche ein „Watermarking“ für von Menschen kreierte Texte und Fotos. Eine sinnvolle Ergänzung dazu könne ein „soziales Trustnetzwerk“ sein – also ein System, mit dem vertrauenswürdige Journalist*innen empfohlen werden. Sie etwa kenne einige Journalistinnen und Journalisten, bei denen sie dafür bürgen würde, dass diese verantwortungsbewusst mit einer KI umgehen.

Kollektives Urheberrecht

Christina Elmer zeigte sich zurückhaltender, was eine Kennzeichnung von KI betrifft. Bisher habe man noch nicht die guten Rezepte gefunden. Denkbar sei etwa „eine Art Beipackzettel“ für journalistische Arbeiten. Klar sei aber, wie man es nicht machen dürfe: Elmer verwies auf das US-Magazin „CNET“, das Artikel veröffentlicht hatte, die zumindest in Teilen von einer KI erstellt worden waren – ohne eindeutige Kennzeichnung und offenbar ohne ausreichende Redigatur. Denn wie sich später herausstellte, wiesen die Texte eine ganze Reihe von Fehlern auf.

Was bei der Diskussion um KI meist mitschwingt, ist die Befürchtung, dass die Technologie zahlreiche Arbeitsplätze überflüssig machen wird. Grimberg forderte: „KI darf nicht die Redakteure ersetzen.“ Es müsse klare Regeln für die Verlage geben. Das sei auch eine Aufgabe für die Gewerkschaften. KI dürfe außerdem nicht zur Renditesteigerung eingesetzt werden. Einsparungen, die durch den Einsatz der KI möglich werden, sollten direkt den Redaktionen zugutekommen und ihnen mehr Spielräume verschaffen, etwa bei der Recherche.

Zahlreiche offene Fragen gibt es auch zur Rolle des Urheberrechts im Zusammenhang mit Arbeiten, die durch ChatGPT und Co entstanden sind. Katharina Zweig sieht das auch als Chance. Sie sprach sich für ein „kollektives Urheberrecht“ aus, denn „wir alle arbeiten gemeinsam an der deutschen Sprache“. Die Erlöse einer „VG KI-Wort“ könnten dafür eingesetzt werden, den deutschsprachigen Journalismus zu fördern, sagte Zweig. „Das wäre eine unabhängige Finanzierungsquelle für den Journalismus.“


Initiative von Kreativen zu KI

Für Transparenz und Kennzeichnung

Angesichts rasant fortschreitender KI-Technologien wendet sich ein Bündnis von Kreativ-Verbänden, darunter ver.di, mit einem Positionspapier an die KI-Verantwortlichen in Politik, Wirtschaft, Institutionen, Verbänden und an den Gesetzgeber. Ziel ist es, Urheber*innen und ihre Werke zu schützen.

Darin heißt es unter anderem: Die technische Möglichkeit, Werke per Text- und Data-Mining auslesen zu können, dürfe nicht jegliche Nutzung legitimieren. Der Werknutzung durch KI-Systeme müsse vergütet werden. Der deutsche Ethikrat mahnt: „KI darf den Menschen nicht ersetzen.“ Eine essenzielle Voraussetzung dafür sei der Erhalt des Schutzes der persönlichen geistigen Schöpfungen von Urheber*innen. Von politischen Entscheidungsträgern werde erwartet, dass sie sich für die rund 1,8 Millionen Erwerbstätigen der deutschen Kultur- und Kreativwirtschaft einsetzen.

„KI-Systeme dürfen nur aus nachvollziehbaren, urheberrechtskonformen Quellen trainiert werden“. Eine Nutzung von urheberrechtlich geschützten Daten dürfe nur nach Zustimmung durch die Urheber*innen erfolgen.

Gefordert wird eine Kennzeichnungspflicht für KI-generierte Erzeugnisse. Für Nutzende müsse schnell und eindeutig ersichtlich sein, ob ein Text, ein Bild, Musikstück oder Video von Menschen erstellt und geprüft oder durch KI generiert wurde.

Mehr unter: Initiative KI aber fair | Urheberrechte stärken (ki-aber-fair.de)

nach oben

Weitere aktuelle Beiträge

„PR-Puppen“ proben den Aufstand 

Kreative, die der Tech-Konzern OpenAI (ChatGPT, DALL-E) zu einem geschlossenen Produkttest eingeladen hatte, leakten den Testzugang kürzlich und griffen OpenAI in einem Protestschreiben öffentlich an. Sie warfen dem Unternehmen u.a. vor, sie für Marketing und PR zu missbrauchen und Art Washing zu betreiben.Eine teilnehmende Person schildert M , wie es zu dem Leak kam und was Techkonzerne künftig bei der Zusammenarbeit mit Kreativen besser machen können.
mehr »

Klimaprotest erreicht Abendprogramm

Am 20. August 2018, setzte sich die damals 15jährige Greta Thunberg mit dem Schild “Skolstrejk för Klimatet“ vor das Parlament in Stockholm. Das war die Geburtsstunde von Fridays for Future (FFF) – einer Bewegung, die nach ersten Medienberichten international schnell anwuchs. Drei Jahre zuvor hatte sich die Staatengemeinschaft auf der Pariser Klimakonferenz (COP 21) völkerrechtlich verbindlich darauf geeinigt, die Erderwärmung auf deutlich unter zwei Grad Celsius gegenüber dem vorindustriellen Niveau zu begrenzen.
mehr »

Mediatheken löschen ihre Inhalte

In Zeiten von Video-on-demand, Streaming und Mediatheken haben sich Sehgewohnheiten verändert. Zuschauer*innen  gucken wie selbstverständlich Filme, Serien, Dokus oder Nachrichten online. Private und öffentlich-rechtliche Fernsehsender pflegen daher inzwischen umfangreiche Mediatheken. Sendung verpasst? In den Online-Videotheken der TV-Anstalten gibt es nahezu alle Medieninhalte, um sie zu einem passenden Zeitpunkt anzuschauen, anzuhören oder nachzulesen. Irgendwann werden sie dann aber gelöscht.
mehr »

KI beinflusst Vielfalt in den Medien

Künstliche Intelligenz kann journalistische Texte in verschiedene Sprachen übersetzen und damit viel mehr Nutzer*innen ansprechen. Gleichzeitig kann sie aber auch Stereotype, die in diesen Texten enthalten sind, verfestigen. Gefahren und Chancen von KI-Anwendungen im Journalismus standen im Fokus der diesjährigen NxMedienkonferenz der Neuen deutschen Medienmacher*innen (NdM), die sich für mehr Vielfalt in den Medien einsetzen.
mehr »