Unsichtbarer Helfer oder Robo-Journalist?

Der vierte Medienssalon von dju in ver.di, DJV Berlin und meko factory, diesmal zum Thema Künstliche Intelligenz im Journalimus, fand am 9. Mai 2018 nicht wie sonst im taz-Café, sondern im Berliner Vodafone-Institut statt. Auf dem Podium v.l.n.r: Jan Georg Plavec, Sonja Peteranderl, Johannes Altmeyer, Sissi Pitzer
Foto: Henrik Andree / meko factory

Der Einsatz von Künstlicher Intelligenz (KI) im Journalismus treibt die Branche um, Diskussionen darüber entbehren selten einer gewissen Aufgeregtheit. Machen Algorithmen und Robo-Texte Journalistinnen und Journalisten etwa bald arbeitslos? Nein, denn der Faktor Mensch bleibt nicht herauszudenken, so das Fazit des Mediensalons von dju in ver.di, DJV Berlin und meko factory, der am 9. Mai nicht wie gewöhnlich im taz Café, sondern im Berliner Vodafone-Institut stattfand. Die Ethik dürfe bei der automatisierten Textproduktion aber nicht aus dem Blickfeld geraten.

„Als Gewerkschaft sehen wir den Einsatz von Robo-Journalismus natürlich auch kritisch“, begrüßt Renate Gensch, Vorsitzende der dju Berlin-Brandenburg, die Gäste, die den Konferenzsaal trotz des anstehenden Feiertags fast bis auf den letzten Platz füllen. Die Befürchtung, der Einsatz von KI in Redaktionen könne von den Verlegern als Vorwand benutzt werden, um erneut Personal einzusparen, sei sicher nicht von der Hand zu weisen. Und noch einen großen Vorteil hätten die Roboter: Sie streiken nicht. „Sie werden außerdem nie krank, noch verlangen sie eine Lohnerhöhung“, ergänzt Moderator Johannes Altmeyer von WeltN24.

Ist das Journalismus?

Von Robotern oder Robo-Journalismus zu sprechen, findet Sissi Pitzer vom B5 Medienmagazin des Bayerischen Rundfunks reichlich irreführend. Schließlich sitze ja dort kein wirklicher Roboter und hämmere die Texte in die Computertastatur. Tatsächlich handele es sich doch eher um eine Unterkategorie des Datenjournalismus. Ein „Verschriftlichen von Zahlen“ nennt das auch Jan Georg Plavec, Multimedia-Redakteur bei Stuttgarter Zeitung und Stuttgarter Nachrichten. Journalismus sei das nur bedingt, korrekter wäre es, von „Textautomatisierung“ zu sprechen. Plavec hat für seinen Verlag am Projekt „Feinstaubradar“ mitgearbeitet, mit dem Leserinnen und Lesern aus Stuttgart und Region stündlich überprüfen können, wie viel Feinstaub in ihrem Gebiet aktuell in der Luft ist. Dafür werden vom OK Lab Stuttgart die Daten von rund 300 Sensoren bezogen, die Privatleute in der Region selbst aufgehängt haben. Diese Feinstaubmesswerte werden dann auf einer Live-Karte visualisiert. Die Feinstaubberichte, etwa 80 am Tag, werden hingegen automatisiert erstellt, mit Hilfe einer Fremdsoftware von AX Semantics, ein Stuttgarter Unternehmen, das auf datenbasierte Textgenerierung spezialisiert ist.

Nicht nur Wetter und Fußball

„User Generated Content im öffentlichen Raum“ sei das, eine innovative Möglichkeit sich Daten zu erschließen, findet Journalistin Sonja Peteranderl, die kürzlich über den Feinstaubradar berichtet hat. Grundsätzlich mache automatisierte Textproduktion überall dort Sinn, wo massenhaft Daten ausgewertet und Muster erkannt werden müssen, also etwa in der Wirtschafts- und Finanzberichterstattung, teilweise beim Wetter. Doch der Faktor Mensch könne dabei nicht herausgedacht werden. Das Ergebnis hänge erheblich davon ab, wie die Redakteur_innen die Software trainiert haben. Die automatisierte Textproduktion sei also so etwas wie ein „unsichtbarer Helfer“, der Journalistinnen und Journalisten helfe, „besser zu berichten“. Denn die müssten Statistiken und Datenmaterial nun nicht mehr selbst durchsuchen. Eher als Entlastung denn als Gefahr für die Redakteur_innen begreift auch Pitzer den Einsatz von KI in der Textproduktion. Die ermögliche es nicht zuletzt, neue Geschäftsfelder zu entdecken. Spannend findet sie das Thema Fußball. So hätte sie im Medienmagazin etwa die Software ReportExpress vorgestellt, mit der automatisch Berichte von Fußballspielen generiert werden können. „Denn auch die kleinste Lokalzeitung kann nicht jeden Verein abbilden.“

Die Grenzen des Algorithmus

Im vergangenen Sommer wurden die Bewohner Kaliforniens kurzzeitig in Angst und Schrecken versetzt, als die „Los Angeles Times“ in einem Tweet ein aktuell schweres Erdbeben in der Region meldete. Gesendet wurde die Nachricht automatisiert vom QuakeBot der LA Times, der dafür auf öffentliche Daten des US-Erdbebenzentrums zurückgreift. Dort wurde eine falsche Warnung versendet, weil Forscher_innen die Daten zu einem Erdbeben von 1925 aktualisiert, diese Aktualisierung aber irrtümlich mit der Jahreszahl 2025 versehen und vom Algorithmus somit als aktuelles Erdbeben erkannt wurde. Laut Peteranderl erkennt man an diesem Beispiel gut die Grenzen des Algorithmus, das sei nämlich „der menschliche Makel“. Für Pitzer sind diese Grenzen relativ klar: Der Algorithmus stoße immer dann an seine Grenzen, wenn etwas interpretiert werden müsse. „Dann braucht man den Menschen.“ Deshalb sieht sie die automatisierte Produktion von Texten in der Polizeiberichterstattung auch äußerst kritisch: „Man muss sich mal überlegen, was da heraus gekommen wäre bei der Silvesternacht in Köln, wenn man an den Polizeibericht denkt, der damals rausgegeben wurde.“ Plavec, der auch Betriebsrat ist, hat dazu eine geteilte Meinung. Einerseits könnten den Kolleginnen und Kollegen, die sich sonst um die Randspalte mit den Polizeimeldungen kümmern müssten, neue Freiräume verschafft werden, andererseits „kommen wir hier natürlich in einen Bereich, wo der Roboter möglicherweise menschliche Arbeit billiger ersetzt“ und den Verlegern damit ein Argument für Stellenabbau liefert.

Einig sind sich die Podiumsgäste aber darüber, dass automatisierte Textproduktion nicht ohne Ethik und Transparenz funktioniert. „Denn ethisch wird es, wenn man es als Journalismus ausgibt“, warnt Pitzer. Deshalb fordert sie ebenso wie die anderen eine Kennzeichnung von automatisiert hergestellten Texten, auch die Datenbasis müsse ihrer Ansicht nach genannt werden.

nach oben

Weitere aktuelle Beiträge

Nicaraguas bedrohte Medien

Die Diktatur des nicaraguanischen Präsidentenpaars Daniel Ortega und Rocio Murillo hat in den letzten Jahren immer mehr Journalist*innen ins Exil getrieben. Unter erschwerten Bedingungen berichten Menschen wie Lucía Pineda vom Nachrichtenkanal "100% Noticias" oder Wendy Quintero nun aus dem Ausland. Für diese Arbeit nehmen sie stellvertretend für viele andere am 26. November 2024 den Menschenrechtspreis der Friedrich-Ebert-Stiftung entgegen.
mehr »

Österreich: Gefahr für die Pressefreiheit

In Österreich ist die extrem rechte FPÖ bei den Nationalratswahlen stärkste Kraft geworden. Noch ist keine zukünftige Koalition etabliert. Luis Paulitsch erklärt im Interview, welche Entwicklungen in der österreichischen Medienlandschaft zu erwarten sind, sollten die FPÖ und ihr Spitzenkandidat Herbert Kickl an der Regierung beteiligt werden. Paulitsch ist Jurist, Zeithistoriker und Medienethiker. Von 2019 bis 2024 war er Referent des Österreichischen Presserats, dem Selbstkontrollorgan der österreichischen Printmedien;  seit 2024 bei der Datum Stiftung für Journalismus und Demokratie.
mehr »

KI beinflusst Vielfalt in den Medien

Künstliche Intelligenz kann journalistische Texte in verschiedene Sprachen übersetzen und damit viel mehr Nutzer*innen ansprechen. Gleichzeitig kann sie aber auch Stereotype, die in diesen Texten enthalten sind, verfestigen. Gefahren und Chancen von KI-Anwendungen im Journalismus standen im Fokus der diesjährigen NxMedienkonferenz der Neuen deutschen Medienmacher*innen (NdM), die sich für mehr Vielfalt in den Medien einsetzen.
mehr »

ARD & ZDF legen Verfassungsbeschwerde ein

Nachdem die Ministerpräsident*innen auf ihrer Jahreskonferenz Ende Oktober keinen Beschluss zur Anpassung des Rundfunkbeitrags ab 2025 fassten, haben heute ARD und ZDF Beschwerde beim Bundesverfassungsgericht in Karlsruhe eingelegt. Die Dienstleistungsgewerkschaft ver.di begrüßt die Initiative.
mehr »