Unsichtbarer Helfer oder Robo-Journalist?

Der vierte Medienssalon von dju in ver.di, DJV Berlin und meko factory, diesmal zum Thema Künstliche Intelligenz im Journalimus, fand am 9. Mai 2018 nicht wie sonst im taz-Café, sondern im Berliner Vodafone-Institut statt. Auf dem Podium v.l.n.r: Jan Georg Plavec, Sonja Peteranderl, Johannes Altmeyer, Sissi Pitzer
Foto: Henrik Andree / meko factory

Der Einsatz von Künstlicher Intelligenz (KI) im Journalismus treibt die Branche um, Diskussionen darüber entbehren selten einer gewissen Aufgeregtheit. Machen Algorithmen und Robo-Texte Journalistinnen und Journalisten etwa bald arbeitslos? Nein, denn der Faktor Mensch bleibt nicht herauszudenken, so das Fazit des Mediensalons von dju in ver.di, DJV Berlin und meko factory, der am 9. Mai nicht wie gewöhnlich im taz Café, sondern im Berliner Vodafone-Institut stattfand. Die Ethik dürfe bei der automatisierten Textproduktion aber nicht aus dem Blickfeld geraten.

„Als Gewerkschaft sehen wir den Einsatz von Robo-Journalismus natürlich auch kritisch“, begrüßt Renate Gensch, Vorsitzende der dju Berlin-Brandenburg, die Gäste, die den Konferenzsaal trotz des anstehenden Feiertags fast bis auf den letzten Platz füllen. Die Befürchtung, der Einsatz von KI in Redaktionen könne von den Verlegern als Vorwand benutzt werden, um erneut Personal einzusparen, sei sicher nicht von der Hand zu weisen. Und noch einen großen Vorteil hätten die Roboter: Sie streiken nicht. „Sie werden außerdem nie krank, noch verlangen sie eine Lohnerhöhung“, ergänzt Moderator Johannes Altmeyer von WeltN24.

Ist das Journalismus?

Von Robotern oder Robo-Journalismus zu sprechen, findet Sissi Pitzer vom B5 Medienmagazin des Bayerischen Rundfunks reichlich irreführend. Schließlich sitze ja dort kein wirklicher Roboter und hämmere die Texte in die Computertastatur. Tatsächlich handele es sich doch eher um eine Unterkategorie des Datenjournalismus. Ein „Verschriftlichen von Zahlen“ nennt das auch Jan Georg Plavec, Multimedia-Redakteur bei Stuttgarter Zeitung und Stuttgarter Nachrichten. Journalismus sei das nur bedingt, korrekter wäre es, von „Textautomatisierung“ zu sprechen. Plavec hat für seinen Verlag am Projekt „Feinstaubradar“ mitgearbeitet, mit dem Leserinnen und Lesern aus Stuttgart und Region stündlich überprüfen können, wie viel Feinstaub in ihrem Gebiet aktuell in der Luft ist. Dafür werden vom OK Lab Stuttgart die Daten von rund 300 Sensoren bezogen, die Privatleute in der Region selbst aufgehängt haben. Diese Feinstaubmesswerte werden dann auf einer Live-Karte visualisiert. Die Feinstaubberichte, etwa 80 am Tag, werden hingegen automatisiert erstellt, mit Hilfe einer Fremdsoftware von AX Semantics, ein Stuttgarter Unternehmen, das auf datenbasierte Textgenerierung spezialisiert ist.

Nicht nur Wetter und Fußball

„User Generated Content im öffentlichen Raum“ sei das, eine innovative Möglichkeit sich Daten zu erschließen, findet Journalistin Sonja Peteranderl, die kürzlich über den Feinstaubradar berichtet hat. Grundsätzlich mache automatisierte Textproduktion überall dort Sinn, wo massenhaft Daten ausgewertet und Muster erkannt werden müssen, also etwa in der Wirtschafts- und Finanzberichterstattung, teilweise beim Wetter. Doch der Faktor Mensch könne dabei nicht herausgedacht werden. Das Ergebnis hänge erheblich davon ab, wie die Redakteur_innen die Software trainiert haben. Die automatisierte Textproduktion sei also so etwas wie ein „unsichtbarer Helfer“, der Journalistinnen und Journalisten helfe, „besser zu berichten“. Denn die müssten Statistiken und Datenmaterial nun nicht mehr selbst durchsuchen. Eher als Entlastung denn als Gefahr für die Redakteur_innen begreift auch Pitzer den Einsatz von KI in der Textproduktion. Die ermögliche es nicht zuletzt, neue Geschäftsfelder zu entdecken. Spannend findet sie das Thema Fußball. So hätte sie im Medienmagazin etwa die Software ReportExpress vorgestellt, mit der automatisch Berichte von Fußballspielen generiert werden können. „Denn auch die kleinste Lokalzeitung kann nicht jeden Verein abbilden.“

Die Grenzen des Algorithmus

Im vergangenen Sommer wurden die Bewohner Kaliforniens kurzzeitig in Angst und Schrecken versetzt, als die „Los Angeles Times“ in einem Tweet ein aktuell schweres Erdbeben in der Region meldete. Gesendet wurde die Nachricht automatisiert vom QuakeBot der LA Times, der dafür auf öffentliche Daten des US-Erdbebenzentrums zurückgreift. Dort wurde eine falsche Warnung versendet, weil Forscher_innen die Daten zu einem Erdbeben von 1925 aktualisiert, diese Aktualisierung aber irrtümlich mit der Jahreszahl 2025 versehen und vom Algorithmus somit als aktuelles Erdbeben erkannt wurde. Laut Peteranderl erkennt man an diesem Beispiel gut die Grenzen des Algorithmus, das sei nämlich „der menschliche Makel“. Für Pitzer sind diese Grenzen relativ klar: Der Algorithmus stoße immer dann an seine Grenzen, wenn etwas interpretiert werden müsse. „Dann braucht man den Menschen.“ Deshalb sieht sie die automatisierte Produktion von Texten in der Polizeiberichterstattung auch äußerst kritisch: „Man muss sich mal überlegen, was da heraus gekommen wäre bei der Silvesternacht in Köln, wenn man an den Polizeibericht denkt, der damals rausgegeben wurde.“ Plavec, der auch Betriebsrat ist, hat dazu eine geteilte Meinung. Einerseits könnten den Kolleginnen und Kollegen, die sich sonst um die Randspalte mit den Polizeimeldungen kümmern müssten, neue Freiräume verschafft werden, andererseits „kommen wir hier natürlich in einen Bereich, wo der Roboter möglicherweise menschliche Arbeit billiger ersetzt“ und den Verlegern damit ein Argument für Stellenabbau liefert.

Einig sind sich die Podiumsgäste aber darüber, dass automatisierte Textproduktion nicht ohne Ethik und Transparenz funktioniert. „Denn ethisch wird es, wenn man es als Journalismus ausgibt“, warnt Pitzer. Deshalb fordert sie ebenso wie die anderen eine Kennzeichnung von automatisiert hergestellten Texten, auch die Datenbasis müsse ihrer Ansicht nach genannt werden.

nach oben

weiterlesen

Ermessungsspielraum beim Symbolfoto

Während der Pandemie kam es im Journalismus zu einem vermehrten Einsatz von Fotografien symbolischen Gehalts, seien es Masken oder Impfampullen. Damit stellt sich die Frage, wann und ob diese Bilder als „Symbolfoto“ gekennzeichnet werden müssen. Felix Koltermann ist dieser Frage für M ausgehend von den Regularien des deutschen Pressekodex nachgegangen.
mehr »

Günter-Wallraff-Preis für Julian Assange

Der investigative Journalist und Wikileaks-Gründer Julian Assange ist mit dem Günter-Wallraff-Preis 2022 ausgezeichnet worden. Der mit 5.000 Euro dotierte Preis würdigt im Namen von Deutschlands bekanntestem Investigativjournalisten kritischen Journalismus und Zivilcourage. Er wurde im Rahmen des 6. Kölner Forums für Journalismuskritik verliehen. Die Menschenrechtsaktivistin und Juristin Stella Moris nahm die Auszeichnung stellvertretend für ihren Ehemann Julian Assange vor Ort entgegen.
mehr »

UFA: Betriebsratswahl nach nur einem Jahr

Nachdem die Beschäftigten der Produktionsgesellschaft UFA, einer Tochter der zu Bertelsmann gehörenden RTL Group, im vergangenen Jahr einen Betriebsrat gewählt hatten, werden sie in diesem Herbst erneut zu den Wahlurnen gerufen. Grund ist das Ausscheiden von zwei der neun Betriebsratsmitglieder, so Marion Jenke, die seit dem vergangenen Jahr als freigestellte Betriebsrätin in Potsdam tätig ist. Es ist die erste Freistellung eines Betriebsrates bei der UFA überhaupt.
mehr »

EU vor Überwachung vertraulicher Chats?

Die Europäische Kommission hat am 11. Mai einen Entwurf zur Regulierung von Plattformen und Chatnachrichtendienstanbietern veröffentlicht, um den sexuellen Missbrauch von Kindern und die Verbreitung entsprechenden Bild- und Videomaterials zu bekämpfen. Reporter ohne Grenzen (RSF) ist angesichts einer möglichen verdachtsunabhängigen Überwachung vertraulicher Kommunikation „alarmiert“.
mehr »