Unsichtbarer Helfer oder Robo-Journalist?

Der vierte Medienssalon von dju in ver.di, DJV Berlin und meko factory, diesmal zum Thema Künstliche Intelligenz im Journalimus, fand am 9. Mai 2018 nicht wie sonst im taz-Café, sondern im Berliner Vodafone-Institut statt. Auf dem Podium v.l.n.r: Jan Georg Plavec, Sonja Peteranderl, Johannes Altmeyer, Sissi Pitzer
Foto: Henrik Andree / meko factory

Der Einsatz von Künstlicher Intelligenz (KI) im Journalismus treibt die Branche um, Diskussionen darüber entbehren selten einer gewissen Aufgeregtheit. Machen Algorithmen und Robo-Texte Journalistinnen und Journalisten etwa bald arbeitslos? Nein, denn der Faktor Mensch bleibt nicht herauszudenken, so das Fazit des Mediensalons von dju in ver.di, DJV Berlin und meko factory, der am 9. Mai nicht wie gewöhnlich im taz Café, sondern im Berliner Vodafone-Institut stattfand. Die Ethik dürfe bei der automatisierten Textproduktion aber nicht aus dem Blickfeld geraten.

„Als Gewerkschaft sehen wir den Einsatz von Robo-Journalismus natürlich auch kritisch“, begrüßt Renate Gensch, Vorsitzende der dju Berlin-Brandenburg, die Gäste, die den Konferenzsaal trotz des anstehenden Feiertags fast bis auf den letzten Platz füllen. Die Befürchtung, der Einsatz von KI in Redaktionen könne von den Verlegern als Vorwand benutzt werden, um erneut Personal einzusparen, sei sicher nicht von der Hand zu weisen. Und noch einen großen Vorteil hätten die Roboter: Sie streiken nicht. „Sie werden außerdem nie krank, noch verlangen sie eine Lohnerhöhung“, ergänzt Moderator Johannes Altmeyer von WeltN24.

Ist das Journalismus?

Von Robotern oder Robo-Journalismus zu sprechen, findet Sissi Pitzer vom B5 Medienmagazin des Bayerischen Rundfunks reichlich irreführend. Schließlich sitze ja dort kein wirklicher Roboter und hämmere die Texte in die Computertastatur. Tatsächlich handele es sich doch eher um eine Unterkategorie des Datenjournalismus. Ein „Verschriftlichen von Zahlen“ nennt das auch Jan Georg Plavec, Multimedia-Redakteur bei Stuttgarter Zeitung und Stuttgarter Nachrichten. Journalismus sei das nur bedingt, korrekter wäre es, von „Textautomatisierung“ zu sprechen. Plavec hat für seinen Verlag am Projekt „Feinstaubradar“ mitgearbeitet, mit dem Leserinnen und Lesern aus Stuttgart und Region stündlich überprüfen können, wie viel Feinstaub in ihrem Gebiet aktuell in der Luft ist. Dafür werden vom OK Lab Stuttgart die Daten von rund 300 Sensoren bezogen, die Privatleute in der Region selbst aufgehängt haben. Diese Feinstaubmesswerte werden dann auf einer Live-Karte visualisiert. Die Feinstaubberichte, etwa 80 am Tag, werden hingegen automatisiert erstellt, mit Hilfe einer Fremdsoftware von AX Semantics, ein Stuttgarter Unternehmen, das auf datenbasierte Textgenerierung spezialisiert ist.

Nicht nur Wetter und Fußball

„User Generated Content im öffentlichen Raum“ sei das, eine innovative Möglichkeit sich Daten zu erschließen, findet Journalistin Sonja Peteranderl, die kürzlich über den Feinstaubradar berichtet hat. Grundsätzlich mache automatisierte Textproduktion überall dort Sinn, wo massenhaft Daten ausgewertet und Muster erkannt werden müssen, also etwa in der Wirtschafts- und Finanzberichterstattung, teilweise beim Wetter. Doch der Faktor Mensch könne dabei nicht herausgedacht werden. Das Ergebnis hänge erheblich davon ab, wie die Redakteur_innen die Software trainiert haben. Die automatisierte Textproduktion sei also so etwas wie ein „unsichtbarer Helfer“, der Journalistinnen und Journalisten helfe, „besser zu berichten“. Denn die müssten Statistiken und Datenmaterial nun nicht mehr selbst durchsuchen. Eher als Entlastung denn als Gefahr für die Redakteur_innen begreift auch Pitzer den Einsatz von KI in der Textproduktion. Die ermögliche es nicht zuletzt, neue Geschäftsfelder zu entdecken. Spannend findet sie das Thema Fußball. So hätte sie im Medienmagazin etwa die Software ReportExpress vorgestellt, mit der automatisch Berichte von Fußballspielen generiert werden können. „Denn auch die kleinste Lokalzeitung kann nicht jeden Verein abbilden.“

Die Grenzen des Algorithmus

Im vergangenen Sommer wurden die Bewohner Kaliforniens kurzzeitig in Angst und Schrecken versetzt, als die „Los Angeles Times“ in einem Tweet ein aktuell schweres Erdbeben in der Region meldete. Gesendet wurde die Nachricht automatisiert vom QuakeBot der LA Times, der dafür auf öffentliche Daten des US-Erdbebenzentrums zurückgreift. Dort wurde eine falsche Warnung versendet, weil Forscher_innen die Daten zu einem Erdbeben von 1925 aktualisiert, diese Aktualisierung aber irrtümlich mit der Jahreszahl 2025 versehen und vom Algorithmus somit als aktuelles Erdbeben erkannt wurde. Laut Peteranderl erkennt man an diesem Beispiel gut die Grenzen des Algorithmus, das sei nämlich „der menschliche Makel“. Für Pitzer sind diese Grenzen relativ klar: Der Algorithmus stoße immer dann an seine Grenzen, wenn etwas interpretiert werden müsse. „Dann braucht man den Menschen.“ Deshalb sieht sie die automatisierte Produktion von Texten in der Polizeiberichterstattung auch äußerst kritisch: „Man muss sich mal überlegen, was da heraus gekommen wäre bei der Silvesternacht in Köln, wenn man an den Polizeibericht denkt, der damals rausgegeben wurde.“ Plavec, der auch Betriebsrat ist, hat dazu eine geteilte Meinung. Einerseits könnten den Kolleginnen und Kollegen, die sich sonst um die Randspalte mit den Polizeimeldungen kümmern müssten, neue Freiräume verschafft werden, andererseits „kommen wir hier natürlich in einen Bereich, wo der Roboter möglicherweise menschliche Arbeit billiger ersetzt“ und den Verlegern damit ein Argument für Stellenabbau liefert.

Einig sind sich die Podiumsgäste aber darüber, dass automatisierte Textproduktion nicht ohne Ethik und Transparenz funktioniert. „Denn ethisch wird es, wenn man es als Journalismus ausgibt“, warnt Pitzer. Deshalb fordert sie ebenso wie die anderen eine Kennzeichnung von automatisiert hergestellten Texten, auch die Datenbasis müsse ihrer Ansicht nach genannt werden.

nach oben

Weitere aktuelle Beiträge

Gemeinsame Standards für Medienfreiheit

In Brüssel wird der European Media Freedom Act (EMFA) bereits als "Beginn einer neuen Ära" zelebriert. Ziel der Verordnung ist es, die Unabhängigkeit und Vielfalt journalistischer Medien in der EU in vielfacher Hinsicht zu stärken. Doch wie er von den Mitgliedsstaaten  - vor allem dort, wo etwa die Pressefreiheit gefährdet ist wie Ungarn und der Slowakei - umgesetzt wird, zeigt sich erst im kommenden Sommer.
mehr »

Filmtipp: Die Saat des Heiligen Feigenbaums

Die Alten hüten die Asche, die Jungen schüren das Feuer. Konflikte zwischen den Generationen sind vermutlich so alt wie die Geschichte der Menschheit. Zumindest im Westen haben die im Rückblick als „68er-Bewegung“ zusammengefassten Proteste für tiefgreifende gesellschaftliche Umwälzungen gesorgt. Angesichts des Klimawandels könnte sich das Phänomen wiederholen. Mohammad Rasoulofs Familiendrama, deutscher „Oscar“-Kandidat, beschreibt anhand der Demonstrationen im Iran, wie sich die Alten wehren.
mehr »

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

KI-Lösungen: Heise macht es selbst

Das Medienhaus „Heise Medien“ hat kürzlich das auf generative Künstliche Intelligenz (KI) spezialisierte Medienhaus „Deep Content“ (digitale Magazine „Mixed“ und „The Decoder“) aus Leipzig gekauft. Damit will Heise die Zukunft generativer KI mitgestalten. „Deep Content“ entwickelte mit „DC I/O“ ein professionelles KI-gestütztes Workflow-Framework für Content-Teams und Redaktionen. Bereits seit Juni dieses Jahres kooperiert Heise mit „Deep Content“ bei der Produktion des Podcasts „KI-Update“. Hinter der Übernahme steckt die Idee, den neuen Markt weiter zu erschließen und hohe Gewinne einzufahren.
mehr »