Unsichtbarer Helfer oder Robo-Journalist?

Der vierte Medienssalon von dju in ver.di, DJV Berlin und meko factory, diesmal zum Thema Künstliche Intelligenz im Journalimus, fand am 9. Mai 2018 nicht wie sonst im taz-Café, sondern im Berliner Vodafone-Institut statt. Auf dem Podium v.l.n.r: Jan Georg Plavec, Sonja Peteranderl, Johannes Altmeyer, Sissi Pitzer
Foto: Henrik Andree / meko factory

Der Einsatz von Künstlicher Intelligenz (KI) im Journalismus treibt die Branche um, Diskussionen darüber entbehren selten einer gewissen Aufgeregtheit. Machen Algorithmen und Robo-Texte Journalistinnen und Journalisten etwa bald arbeitslos? Nein, denn der Faktor Mensch bleibt nicht herauszudenken, so das Fazit des Mediensalons von dju in ver.di, DJV Berlin und meko factory, der am 9. Mai nicht wie gewöhnlich im taz Café, sondern im Berliner Vodafone-Institut stattfand. Die Ethik dürfe bei der automatisierten Textproduktion aber nicht aus dem Blickfeld geraten.

„Als Gewerkschaft sehen wir den Einsatz von Robo-Journalismus natürlich auch kritisch“, begrüßt Renate Gensch, Vorsitzende der dju Berlin-Brandenburg, die Gäste, die den Konferenzsaal trotz des anstehenden Feiertags fast bis auf den letzten Platz füllen. Die Befürchtung, der Einsatz von KI in Redaktionen könne von den Verlegern als Vorwand benutzt werden, um erneut Personal einzusparen, sei sicher nicht von der Hand zu weisen. Und noch einen großen Vorteil hätten die Roboter: Sie streiken nicht. „Sie werden außerdem nie krank, noch verlangen sie eine Lohnerhöhung“, ergänzt Moderator Johannes Altmeyer von WeltN24.

Ist das Journalismus?

Von Robotern oder Robo-Journalismus zu sprechen, findet Sissi Pitzer vom B5 Medienmagazin des Bayerischen Rundfunks reichlich irreführend. Schließlich sitze ja dort kein wirklicher Roboter und hämmere die Texte in die Computertastatur. Tatsächlich handele es sich doch eher um eine Unterkategorie des Datenjournalismus. Ein „Verschriftlichen von Zahlen“ nennt das auch Jan Georg Plavec, Multimedia-Redakteur bei Stuttgarter Zeitung und Stuttgarter Nachrichten. Journalismus sei das nur bedingt, korrekter wäre es, von „Textautomatisierung“ zu sprechen. Plavec hat für seinen Verlag am Projekt „Feinstaubradar“ mitgearbeitet, mit dem Leserinnen und Lesern aus Stuttgart und Region stündlich überprüfen können, wie viel Feinstaub in ihrem Gebiet aktuell in der Luft ist. Dafür werden vom OK Lab Stuttgart die Daten von rund 300 Sensoren bezogen, die Privatleute in der Region selbst aufgehängt haben. Diese Feinstaubmesswerte werden dann auf einer Live-Karte visualisiert. Die Feinstaubberichte, etwa 80 am Tag, werden hingegen automatisiert erstellt, mit Hilfe einer Fremdsoftware von AX Semantics, ein Stuttgarter Unternehmen, das auf datenbasierte Textgenerierung spezialisiert ist.

Nicht nur Wetter und Fußball

„User Generated Content im öffentlichen Raum“ sei das, eine innovative Möglichkeit sich Daten zu erschließen, findet Journalistin Sonja Peteranderl, die kürzlich über den Feinstaubradar berichtet hat. Grundsätzlich mache automatisierte Textproduktion überall dort Sinn, wo massenhaft Daten ausgewertet und Muster erkannt werden müssen, also etwa in der Wirtschafts- und Finanzberichterstattung, teilweise beim Wetter. Doch der Faktor Mensch könne dabei nicht herausgedacht werden. Das Ergebnis hänge erheblich davon ab, wie die Redakteur_innen die Software trainiert haben. Die automatisierte Textproduktion sei also so etwas wie ein „unsichtbarer Helfer“, der Journalistinnen und Journalisten helfe, „besser zu berichten“. Denn die müssten Statistiken und Datenmaterial nun nicht mehr selbst durchsuchen. Eher als Entlastung denn als Gefahr für die Redakteur_innen begreift auch Pitzer den Einsatz von KI in der Textproduktion. Die ermögliche es nicht zuletzt, neue Geschäftsfelder zu entdecken. Spannend findet sie das Thema Fußball. So hätte sie im Medienmagazin etwa die Software ReportExpress vorgestellt, mit der automatisch Berichte von Fußballspielen generiert werden können. „Denn auch die kleinste Lokalzeitung kann nicht jeden Verein abbilden.“

Die Grenzen des Algorithmus

Im vergangenen Sommer wurden die Bewohner Kaliforniens kurzzeitig in Angst und Schrecken versetzt, als die „Los Angeles Times“ in einem Tweet ein aktuell schweres Erdbeben in der Region meldete. Gesendet wurde die Nachricht automatisiert vom QuakeBot der LA Times, der dafür auf öffentliche Daten des US-Erdbebenzentrums zurückgreift. Dort wurde eine falsche Warnung versendet, weil Forscher_innen die Daten zu einem Erdbeben von 1925 aktualisiert, diese Aktualisierung aber irrtümlich mit der Jahreszahl 2025 versehen und vom Algorithmus somit als aktuelles Erdbeben erkannt wurde. Laut Peteranderl erkennt man an diesem Beispiel gut die Grenzen des Algorithmus, das sei nämlich „der menschliche Makel“. Für Pitzer sind diese Grenzen relativ klar: Der Algorithmus stoße immer dann an seine Grenzen, wenn etwas interpretiert werden müsse. „Dann braucht man den Menschen.“ Deshalb sieht sie die automatisierte Produktion von Texten in der Polizeiberichterstattung auch äußerst kritisch: „Man muss sich mal überlegen, was da heraus gekommen wäre bei der Silvesternacht in Köln, wenn man an den Polizeibericht denkt, der damals rausgegeben wurde.“ Plavec, der auch Betriebsrat ist, hat dazu eine geteilte Meinung. Einerseits könnten den Kolleginnen und Kollegen, die sich sonst um die Randspalte mit den Polizeimeldungen kümmern müssten, neue Freiräume verschafft werden, andererseits „kommen wir hier natürlich in einen Bereich, wo der Roboter möglicherweise menschliche Arbeit billiger ersetzt“ und den Verlegern damit ein Argument für Stellenabbau liefert.

Einig sind sich die Podiumsgäste aber darüber, dass automatisierte Textproduktion nicht ohne Ethik und Transparenz funktioniert. „Denn ethisch wird es, wenn man es als Journalismus ausgibt“, warnt Pitzer. Deshalb fordert sie ebenso wie die anderen eine Kennzeichnung von automatisiert hergestellten Texten, auch die Datenbasis müsse ihrer Ansicht nach genannt werden.

nach oben

Weitere aktuelle Beiträge

Buchtipp: Missbrauch, Macht & Medien

Zwei Bücher, ein Thema: Juliane Löffler und Thomas Gottschalk beschreiben aus völlig unterschiedlichen Perspektiven, wie sich Gesellschaft und Medien in den letzten Jahren unter anderem durch den Einfluss der MeToo-Bewegung verändert haben. Während Löffler den unverhohlenen männlichen Machtmissbrauch akribisch recherchierte, sorgt sich Gottschalk um seine Privilegien.
mehr »

News-Junkie versus Nachrichtenvermeider

Eine Sonderausstellung im Museum für Kommunikation Berlin gibt Einblicke in die Geschichte der Nachrichten und unser Verhältnis dazu. Nie war es leichter, sich über das Weltgeschehen zu informieren als heute. Nie gab es mehr Medien und Formate, über die wir jederzeit und überall Nachrichten abrufen können. Doch wie können wir uns in diesem Dschungel zurechtfinden? Wie können wir gute Nachrichten produzieren?
mehr »

ver.di-Filmpreis für „Im Prinzip Familie“

„Im Prinzip Familie“ von Daniel Abma ist Gewinner des diesjährigen ver.di-Preises für Solidarität, Menschlichkeit und Fairness auf dem Internationalen Leipziger Festival für Dokumentar- und Animationsfilm DOK.  Der Film erhielt zudem den „film.land.sachsen-Preis“ für Filmkultur im ländlichen Raum sowie den Preis „Gedanken-Aufschluss“, von einer Jury aus Strafgefangenen der Jugendstrafvollzugsanstalt Regis-Breitingen. Damit gingen an „Im Prinzip Familie“ die meisten Auszeichnungen bei DOK Leipzig 2024.
mehr »

Der Umgang mit Polizeiquellen

Auch die Polizei betreibt Pressearbeit und schreibt Mitteilungen. Ob diese für Medienschaffende als Quelle taugen, ist umstritten. Viele Journalist*innen übernehmen dennoch, was die Polizei im Netz postet und twittert. Dabei ist nach zahlreichen Vorfällen klar: Die Polizei ist ein eigenständiger Akteur in der öffentlichen Meinungsbildung. In unserem Podcast beschreibt Mohamed Amjahid, wie tief das Polizeiproblem in Deutschlands Sicherheitsarchitektur verwurzelt ist und was die Medien damit zu tun haben.
mehr »