Unsichtbarer Helfer oder Robo-Journalist?

Der vierte Medienssalon von dju in ver.di, DJV Berlin und meko factory, diesmal zum Thema Künstliche Intelligenz im Journalimus, fand am 9. Mai 2018 nicht wie sonst im taz-Café, sondern im Berliner Vodafone-Institut statt. Auf dem Podium v.l.n.r: Jan Georg Plavec, Sonja Peteranderl, Johannes Altmeyer, Sissi Pitzer
Foto: Henrik Andree / meko factory

Der Einsatz von Künstlicher Intelligenz (KI) im Journalismus treibt die Branche um, Diskussionen darüber entbehren selten einer gewissen Aufgeregtheit. Machen Algorithmen und Robo-Texte Journalistinnen und Journalisten etwa bald arbeitslos? Nein, denn der Faktor Mensch bleibt nicht herauszudenken, so das Fazit des Mediensalons von dju in ver.di, DJV Berlin und meko factory, der am 9. Mai nicht wie gewöhnlich im taz Café, sondern im Berliner Vodafone-Institut stattfand. Die Ethik dürfe bei der automatisierten Textproduktion aber nicht aus dem Blickfeld geraten.

„Als Gewerkschaft sehen wir den Einsatz von Robo-Journalismus natürlich auch kritisch“, begrüßt Renate Gensch, Vorsitzende der dju Berlin-Brandenburg, die Gäste, die den Konferenzsaal trotz des anstehenden Feiertags fast bis auf den letzten Platz füllen. Die Befürchtung, der Einsatz von KI in Redaktionen könne von den Verlegern als Vorwand benutzt werden, um erneut Personal einzusparen, sei sicher nicht von der Hand zu weisen. Und noch einen großen Vorteil hätten die Roboter: Sie streiken nicht. „Sie werden außerdem nie krank, noch verlangen sie eine Lohnerhöhung“, ergänzt Moderator Johannes Altmeyer von WeltN24.

Ist das Journalismus?

Von Robotern oder Robo-Journalismus zu sprechen, findet Sissi Pitzer vom B5 Medienmagazin des Bayerischen Rundfunks reichlich irreführend. Schließlich sitze ja dort kein wirklicher Roboter und hämmere die Texte in die Computertastatur. Tatsächlich handele es sich doch eher um eine Unterkategorie des Datenjournalismus. Ein „Verschriftlichen von Zahlen“ nennt das auch Jan Georg Plavec, Multimedia-Redakteur bei Stuttgarter Zeitung und Stuttgarter Nachrichten. Journalismus sei das nur bedingt, korrekter wäre es, von „Textautomatisierung“ zu sprechen. Plavec hat für seinen Verlag am Projekt „Feinstaubradar“ mitgearbeitet, mit dem Leserinnen und Lesern aus Stuttgart und Region stündlich überprüfen können, wie viel Feinstaub in ihrem Gebiet aktuell in der Luft ist. Dafür werden vom OK Lab Stuttgart die Daten von rund 300 Sensoren bezogen, die Privatleute in der Region selbst aufgehängt haben. Diese Feinstaubmesswerte werden dann auf einer Live-Karte visualisiert. Die Feinstaubberichte, etwa 80 am Tag, werden hingegen automatisiert erstellt, mit Hilfe einer Fremdsoftware von AX Semantics, ein Stuttgarter Unternehmen, das auf datenbasierte Textgenerierung spezialisiert ist.

Nicht nur Wetter und Fußball

„User Generated Content im öffentlichen Raum“ sei das, eine innovative Möglichkeit sich Daten zu erschließen, findet Journalistin Sonja Peteranderl, die kürzlich über den Feinstaubradar berichtet hat. Grundsätzlich mache automatisierte Textproduktion überall dort Sinn, wo massenhaft Daten ausgewertet und Muster erkannt werden müssen, also etwa in der Wirtschafts- und Finanzberichterstattung, teilweise beim Wetter. Doch der Faktor Mensch könne dabei nicht herausgedacht werden. Das Ergebnis hänge erheblich davon ab, wie die Redakteur_innen die Software trainiert haben. Die automatisierte Textproduktion sei also so etwas wie ein „unsichtbarer Helfer“, der Journalistinnen und Journalisten helfe, „besser zu berichten“. Denn die müssten Statistiken und Datenmaterial nun nicht mehr selbst durchsuchen. Eher als Entlastung denn als Gefahr für die Redakteur_innen begreift auch Pitzer den Einsatz von KI in der Textproduktion. Die ermögliche es nicht zuletzt, neue Geschäftsfelder zu entdecken. Spannend findet sie das Thema Fußball. So hätte sie im Medienmagazin etwa die Software ReportExpress vorgestellt, mit der automatisch Berichte von Fußballspielen generiert werden können. „Denn auch die kleinste Lokalzeitung kann nicht jeden Verein abbilden.“

Die Grenzen des Algorithmus

Im vergangenen Sommer wurden die Bewohner Kaliforniens kurzzeitig in Angst und Schrecken versetzt, als die „Los Angeles Times“ in einem Tweet ein aktuell schweres Erdbeben in der Region meldete. Gesendet wurde die Nachricht automatisiert vom QuakeBot der LA Times, der dafür auf öffentliche Daten des US-Erdbebenzentrums zurückgreift. Dort wurde eine falsche Warnung versendet, weil Forscher_innen die Daten zu einem Erdbeben von 1925 aktualisiert, diese Aktualisierung aber irrtümlich mit der Jahreszahl 2025 versehen und vom Algorithmus somit als aktuelles Erdbeben erkannt wurde. Laut Peteranderl erkennt man an diesem Beispiel gut die Grenzen des Algorithmus, das sei nämlich „der menschliche Makel“. Für Pitzer sind diese Grenzen relativ klar: Der Algorithmus stoße immer dann an seine Grenzen, wenn etwas interpretiert werden müsse. „Dann braucht man den Menschen.“ Deshalb sieht sie die automatisierte Produktion von Texten in der Polizeiberichterstattung auch äußerst kritisch: „Man muss sich mal überlegen, was da heraus gekommen wäre bei der Silvesternacht in Köln, wenn man an den Polizeibericht denkt, der damals rausgegeben wurde.“ Plavec, der auch Betriebsrat ist, hat dazu eine geteilte Meinung. Einerseits könnten den Kolleginnen und Kollegen, die sich sonst um die Randspalte mit den Polizeimeldungen kümmern müssten, neue Freiräume verschafft werden, andererseits „kommen wir hier natürlich in einen Bereich, wo der Roboter möglicherweise menschliche Arbeit billiger ersetzt“ und den Verlegern damit ein Argument für Stellenabbau liefert.

Einig sind sich die Podiumsgäste aber darüber, dass automatisierte Textproduktion nicht ohne Ethik und Transparenz funktioniert. „Denn ethisch wird es, wenn man es als Journalismus ausgibt“, warnt Pitzer. Deshalb fordert sie ebenso wie die anderen eine Kennzeichnung von automatisiert hergestellten Texten, auch die Datenbasis müsse ihrer Ansicht nach genannt werden.

nach oben

Weitere aktuelle Beiträge

Was tun gegen defekte Debatten

Das Land steckt in der Krise und mit ihm die Diskussionskultur. Themen wie Krieg und Pandemie, Migration und Rechtsextremismus polarisieren die politische Öffentlichkeit. In ihrem Buch „Defekte Debatten: Warum wir als Gesellschaft besser streiten müssen“ suchen Julia Reuschenbach, Politikwissenschaftlerin an der FU Berlin und Korbinian Frenzel, Journalist und Redaktionsleiter Prime Time bei Deutschlandfunk Kultur, nach Auswegen aus der diskursiven Sackgasse.
mehr »

Content, Streaming und Transformation

Medienkonvergenz erfordert neue Geschäftskonzepte und eine funktionierende Infrastruktur. Doch beides ist eine Herausforderung, die es zu meistern gilt. Wie? Das wurde auf einer der weltgrößten Telekommunikationsmessen diskutiert: Der Anga Com in Köln. Auf der Kongressmesse für Breitband, Fernsehen und Online wird auch das neue Digitalministerium in die Pflicht genommen.
mehr »

Breiter Protest gegen Radiokürzungen

Als die Bundesländer im vergangenen September Reformvorschläge für ARD, ZDF und Deutschlandfunk vorgelegt haben, war klar: Diese beinhalten starke Kürzungen. Die ARD-Häuser müssen im Auftrag der Politik über die Verringerung von Radiowellen entscheiden. Die Anzahl der regionalen Hörfunkprogramme in der ARD soll demnach von rund 70 Wellen auf 53 sinken. Dagegen regt sich breiter Protest.
mehr »

Filmtipp: Code der Angst

Der Filmemacher Appolain Siewe spürt in seinem Film „Code der Angst“ der Ermordung des kamerunischen Journalisten Eric Lembembe nach. 2013 wird der junge Journalist und LGBTI*-Aktivist Lembembe in Kamerun ermordet. Dieses und weitere Verbrechen gegen Menschen, die in der Öffentlichkeit stehen, lassen Appolain Siewe keine Ruhe. Der Filmemacher ist in Kamerun geboren und aufgewachsen und lebt heute in Berlin.
mehr »