Ein „Assistenzsystem“ für den Journalismus

Christina Elmer, Journalistin und Professorin für Digitalen Journalismus und Datenjournalismus an der TU Dortmund, Steffen Grimberg, Medienjournalist und Vorsitzender des DJV Berlin-Brandenburg, und Katharina Zweig, Professorin für Informatik an der TU Kaiserslautern (v.l.n.r.) diskutieren auf der re:publica „Cash“ 2023. Foto: Sarah Schaefer

Für klare Regeln beim Einsatz von KI – Kennzeichnung notwendig

Sind KI-Modelle eine praktische Unterstützung für Journalist*innen oder bedrohen sie den ganzen Berufsstand? Seit der Einführung von ChatGPT im vergangenen Jahr bewegen diese Fragen die Branche. Eine angenehm unaufgeregte Gesprächsrunde auf der diesjährigen re:publica kam zu dem Ergebnis: Der Sprachassistent kann den Journalismus durchaus besser machen. Dabei gelte es aber einiges zu beachten. Denn ChatGPT habe zwei entscheidende Nachteile, die sich Nutzer*innen dringend bewusst machen müssen.

Das größte Problem vorab: ChatGPT kann keine Fakten – zumindest noch nicht. Daran erinnerte Katharina Zweig gleich mehrfach. Die Professorin für Informatik an der TU Kaiserslautern präsentierte auf dem Podium einen Entscheidungsbaum, an dessen Anfang die Frage steht: „Muss der Text faktisch richtig sein?“ Falls ja: „Können Sie die Fakten überprüfen?“ Ist das nicht der Fall, folgt die dringende Empfehlung: Nicht verwenden. Ein grundlegendes Problem der KI – und das ist der zweite große Nachteil – sei die Art, wie sie mit den Nutzer*innen spreche: in Ich-Form, im „Brustton der Überzeugung“. Davor warnte auch Christina Elmer, Journalistin und Professorin für Digitalen Journalismus und Datenjournalismus an der TU Dortmund: „ChatGPT ist eloquent“. Das führe dazu, dass Menschen die KI grundsätzlich für kompetent halten, auch wenn sie falsche Dinge behaupte. Hier sei ein gesundes Misstrauen angebracht, das in den Redaktionen gezielt trainiert werden müsse.

Elmer zeigte sich dennoch aufgeschlossen: „ChatGPT kann den Journalismus besser machen“, sagte sie. Und zwar dann, wenn man die KI als „Assistenzsystem“ begreife, das beispielsweise dabei helfe, Überschriften zu finden oder Texte umzuschreiben. Auch im Bereich Datenjournalismus könne KI unterstützen, sagte Elmer. Sie erinnerte daran, dass KI schon längst Alltag in vielen Redaktionen sei – etwa bei der Übersetzung von Texten oder schlicht beim Googeln.

KI-Kompetenz gebe es vor allem in den größeren Redaktionen, sagte Steffen Grimberg, Medienjournalist und Vorsitzender des DJV Berlin-Brandenburg. „Den Kleineren muss man helfen.“ Im Lokalen etwa komme es oft auf einzelne Kolleg*innen an, die sich für das Thema interessieren und starkmachen. Wie auch die dju in ver.di fordert der DJV Regeln für die Kennzeichnung und den Einsatz von KI im Journalismus. Ein „Code of Conduct“ müsse künftig vorgeben, in welchen Fällen KI genutzt werden kann und wann nicht. Das Thema müsse in den Presse-kodex aufgenommen werden. „Es muss am Ende ein Mensch sein, der die Verantwortung hat. Wenn das nicht geht, sollte man es lassen“, sagte Grimberg. Sinnvolle Verhaltensregeln für den Umgang mit KI in Redaktionen gebe es bereits, etwa vom US-amerikanischen Magazin „Wired“.

Auch Katharina Zweig sprach sich für eine Kennzeichnung aus. Es brauche ein „Watermarking“ für von Menschen kreierte Texte und Fotos. Eine sinnvolle Ergänzung dazu könne ein „soziales Trustnetzwerk“ sein – also ein System, mit dem vertrauenswürdige Journalist*innen empfohlen werden. Sie etwa kenne einige Journalistinnen und Journalisten, bei denen sie dafür bürgen würde, dass diese verantwortungsbewusst mit einer KI umgehen.

Kollektives Urheberrecht

Christina Elmer zeigte sich zurückhaltender, was eine Kennzeichnung von KI betrifft. Bisher habe man noch nicht die guten Rezepte gefunden. Denkbar sei etwa „eine Art Beipackzettel“ für journalistische Arbeiten. Klar sei aber, wie man es nicht machen dürfe: Elmer verwies auf das US-Magazin „CNET“, das Artikel veröffentlicht hatte, die zumindest in Teilen von einer KI erstellt worden waren – ohne eindeutige Kennzeichnung und offenbar ohne ausreichende Redigatur. Denn wie sich später herausstellte, wiesen die Texte eine ganze Reihe von Fehlern auf.

Was bei der Diskussion um KI meist mitschwingt, ist die Befürchtung, dass die Technologie zahlreiche Arbeitsplätze überflüssig machen wird. Grimberg forderte: „KI darf nicht die Redakteure ersetzen.“ Es müsse klare Regeln für die Verlage geben. Das sei auch eine Aufgabe für die Gewerkschaften. KI dürfe außerdem nicht zur Renditesteigerung eingesetzt werden. Einsparungen, die durch den Einsatz der KI möglich werden, sollten direkt den Redaktionen zugutekommen und ihnen mehr Spielräume verschaffen, etwa bei der Recherche.

Zahlreiche offene Fragen gibt es auch zur Rolle des Urheberrechts im Zusammenhang mit Arbeiten, die durch ChatGPT und Co entstanden sind. Katharina Zweig sieht das auch als Chance. Sie sprach sich für ein „kollektives Urheberrecht“ aus, denn „wir alle arbeiten gemeinsam an der deutschen Sprache“. Die Erlöse einer „VG KI-Wort“ könnten dafür eingesetzt werden, den deutschsprachigen Journalismus zu fördern, sagte Zweig. „Das wäre eine unabhängige Finanzierungsquelle für den Journalismus.“


Initiative von Kreativen zu KI

Für Transparenz und Kennzeichnung

Angesichts rasant fortschreitender KI-Technologien wendet sich ein Bündnis von Kreativ-Verbänden, darunter ver.di, mit einem Positionspapier an die KI-Verantwortlichen in Politik, Wirtschaft, Institutionen, Verbänden und an den Gesetzgeber. Ziel ist es, Urheber*innen und ihre Werke zu schützen.

Darin heißt es unter anderem: Die technische Möglichkeit, Werke per Text- und Data-Mining auslesen zu können, dürfe nicht jegliche Nutzung legitimieren. Der Werknutzung durch KI-Systeme müsse vergütet werden. Der deutsche Ethikrat mahnt: „KI darf den Menschen nicht ersetzen.“ Eine essenzielle Voraussetzung dafür sei der Erhalt des Schutzes der persönlichen geistigen Schöpfungen von Urheber*innen. Von politischen Entscheidungsträgern werde erwartet, dass sie sich für die rund 1,8 Millionen Erwerbstätigen der deutschen Kultur- und Kreativwirtschaft einsetzen.

„KI-Systeme dürfen nur aus nachvollziehbaren, urheberrechtskonformen Quellen trainiert werden“. Eine Nutzung von urheberrechtlich geschützten Daten dürfe nur nach Zustimmung durch die Urheber*innen erfolgen.

Gefordert wird eine Kennzeichnungspflicht für KI-generierte Erzeugnisse. Für Nutzende müsse schnell und eindeutig ersichtlich sein, ob ein Text, ein Bild, Musikstück oder Video von Menschen erstellt und geprüft oder durch KI generiert wurde.

Mehr unter: Initiative KI aber fair | Urheberrechte stärken (ki-aber-fair.de)

nach oben

Weitere aktuelle Beiträge

Rundfunkreform mit vielen Fragezeichen

Bis zuletzt hatten die öffentlich-rechtlichen Anstalten auf ein Ende der Blockade einer Beitragserhöhung durch die Ministerpräsidenten der Länder gehofft. Die Verweigerungshaltung der Politik ließ ihnen am Ende keine Wahl: Am 19. November kündigten ARD und ZDF eine Klage beim Bundesverfassungsgericht an, um ihren Anspruch auf die von der Kommission zur Ermittlung des Finanzbedarfs (KEF) errechnete Empfehlung einer Beitragserhöhung um 58 Cent auf 18,94 Euro monatlich durchzusetzen.
mehr »

KI-Lösungen: Heise macht es selbst

Das Medienhaus „Heise Medien“ hat kürzlich das auf generative Künstliche Intelligenz (KI) spezialisierte Medienhaus „Deep Content“ (digitale Magazine „Mixed“ und „The Decoder“) aus Leipzig gekauft. Damit will Heise die Zukunft generativer KI mitgestalten. „Deep Content“ entwickelte mit „DC I/O“ ein professionelles KI-gestütztes Workflow-Framework für Content-Teams und Redaktionen. Bereits seit Juni dieses Jahres kooperiert Heise mit „Deep Content“ bei der Produktion des Podcasts „KI-Update“. Hinter der Übernahme steckt die Idee, den neuen Markt weiter zu erschließen und hohe Gewinne einzufahren.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Lokaljournalismus: Die Wüste droht

Noch sei es nicht so weit, aber von einer "Steppe" könne man durchaus schon sprechen, sagt Christian Wellbrock von der Hamburg Media School. Wellbrock ist Leiter von "Wüstenradar", einer Studie, die zum ersten Mal die bundesweite Verbreitung und zahlenmäßige Entwicklung von Lokalzeitungen in den letzten 30 Jahren unter die Lupe genommen hat. Sie erhebt, wie stark der Rückgang lokaler Medien inzwischen tatsächlich ist und warnt: In etlichen Regionen droht tatsächlich die Verbreitung von "Nachrichtenwüsten".
mehr »