Roboterjournalismus

Journalistische Arbeit im Zuge modernster Programmiertechnik

Roboterjournalismus wird von manchen Beobachtern als der wichtigste Trend der Medienbranche angesehen. Damit ist übrigens nicht nur das automatische Erstellen von Artikeln gemeint. Auf dem European Newspaper Congress in Wien wurden kürzlich diverse Softwarelösungen vorgestellt, die Verlage gegen klingende Münze inhaltlich unterstützen und deren Kosten drücken sollen.

Foto: alphaspirit / fotolia.com
Foto: alphaspirit / fotolia.com

Tame verspricht den Datenwust des sozialen Netzwerks Twitter zu zähmen. Der Ableger der Berliner Humboldt Universität bietet den Kunden zu jedem Suchbegriff für einen bestimmten Zeitraum alle relevanten Inhalte und die Namen der aktivsten Nutzer an. Twitter ist als Gradmesser interessant. Nirgendwo sonst kann man so gut ablesen, welche Themen beim Publikum „in“ sind. Die Daten sind zwar im Netz frei verfügbar. Doch um Trends abzulesen, muss man die vielen Informationen sammeln und analysieren. Für einen Menschen wäre dies eine wenig attraktive und zudem teure weil langatmige Aufgabe.
In der Kongress-Ankündigung wurde ebenfalls damit geworben, dass die Firma Retresco Mitarbeiter durch Rechenpower ersetzen kann. Gigantische Datensätze oder das komplette Web werden ausgewertet und die Resultate automatisch zusammengestellt. Doch das Ende der Fahnenstange ist noch nicht in Sicht. Einer der Pioniere der Branche, Narrative Science, bietet mittlerweile die vollautomatische Auswertung des komplexen Statistik-Tools Google Analytics an. Die patentierte Software Quill kann die Entwicklung eines Online-Portals trotz unzähliger Faktoren in einen gut lesbaren Text verwandeln.

Preiswerte Detailberichte

Doch heutige Programme können nicht nur Redaktionen unterstützen, sie können eigenständig ganze Texte verfassen. Auf www.fussballheute.net kann man einige Beispiele sehen, die sich bei weitem nicht am Rande des Möglichen bewegen. Zwei Faktoren werden von den Dienstleistern immer wieder erwähnt: Hyper-Individualisierung und Hyper-Lokalisierung. Da die Berichte der Roboter preiswert sind, wird die Technik überall dort eingesetzt, wo viele Daten anfallen und entsprechend viele Artikel veröffentlicht werden können. Gut geeignet sind zum Beispiel Kataloge der Tourismusbranche, Produktbeschreibungen für Online-Shops, Wetterberichte, Hochwasserlageberichte oder Erdbebenmeldungen. Auch die Spielberichte verschiedenster Sportarten bieten sich dafür an. Bei einem Euro pro Artikel lohnen sich nicht nur Schilderungen populärer Spiele der 1. Fußball-Liga, sondern auch Ergebnisse eines Außenseitersports der Mannschaft aus Klein Kleckersdorf. Doch auch die Fans könnten bald zum Zug kommen. Diese können in naher Zukunft wirklich jede einzelne Aktivität ihres Lieblingssportlers über Jahre hinweg verfolgen. Ein Redakteur würde sich niemals die Mühe machen, alle Details zu einem Athleten zusammenzutragen. Die automatischen Autoren beschreiben hingegen jedes noch so winzige Detail, den die Anhänger lesen und die Suchmaschinen indizieren können. Daneben könnte es im Web schon bald maschinelle Hinweise über gesperrte Straßen, verspätete Busse oder veränderte Anfangszeiten von Ratssitzungen geben, um nur ein paar Beispiele zu nennen. Bei einem maximalen Output von täglich 3,6 Millionen Artikeln in vielen verschiedenen Sprachen ist rein theoretisch alles möglich.
Wann und in welchem Umfang die Verlage auf den Zug aufspringen, wird vor allem davon abhängen, ob sie mit diesem Content ihren Umsatz steigern können. Ist die Anzahl der Interessenten hoch genug und das Geschäftsmodell stimmig, würde auch in Deutschland einer computergestützten Sportberichterstattung und vielen anderen Anwendungsgebieten nichts mehr im Wege stehen.
Eine aktuelle Studie des schwedischen Forschers Christer Clerwall kam zu dem Ergebnis, dass derzeit kaum ein Unterschied zwischen Texten von Menschen- und Roboterhand erkennbar ist. Die Beiträge des Kollegen Computer wurden in den Tests zumeist als gut formuliert, informativ und vertrauenswürdig empfunden. Nur wenige Leser bezeichneten die programmierten Artikel als zu eintönig.
Die Verarbeitung der Informationen ist hohe Programmierkunst, weswegen es in Deutschland bisher nur zwei Anbieter gibt. Wenn der Algorithmus auf eine neue Aufgabe vorbereitet werden soll, muss zunächst manuell ein Regelwerk eingegeben werden. So wird beispielsweise festgelegt, dass ein Fußballspieler bei einer roten Karte den Platz verlassen muss. Auch müssen Vorgaben zur Bewertung von bestimmten Ereignissen eingepflegt werden. Wenn der 1. FC Bayern München gegen den Tabellenletzten 0:4 verliert, so hätte dies eine wirklich herausragende Bedeutung. Auch die grobe Struktur zur Gestaltung des Textes muss vorgegeben werden. Der nächste Schritt ist die Implementierung der Sprachen. Der Einbau komplizierter Sprachen inklusive Grammatik und Orthografie dauert bis zu zwei Monate, simple Sprachen erlernt der Computer in der halben Zeitspanne. Die Datenquelle muss im Gegensatz zu früher keinen starren Regeln folgen. Anfangs erinnerte die Generierung von Beiträgen an einen Lückentext, bei dem der PC lediglich die Aufgabe übernahm, Variablen in die Lücken einzusetzen. Hatte sich die Quelle geringfügig verändert, musste die Programmierung jeweils angepasst werden. Heutzutage erkennt die Software immer besser, wo sich in der Quelle Füllwörter und wo sich wichtige Informationen verbergen.
Natürlich sind dem Roboterjournalismus noch immer Grenzen gesetzt. Noch kann das Programm nicht sehen, ob der Torwart am Ende eines Spiels zufrieden oder grimmig schaut. Auch kann er nicht bewerten, ob ein Spiel die Wende einläuten oder das Schicksal eines Trainers besiegeln wird. Was den Applikationen zur Einordnung an Lebenserfahrung und Wissen fehlt, müssen weiterhin die Redakteure leisten. Daran dürfte sich so bald nichts ändern.

Schöne neue Roboterwelt?

Cord Dreyer von Text On weist im Gespräch darauf hin, dass die Menge frei verfügbarer Informationen weiterhin gigantisch ansteigen wird. Im Jahr 2020 soll es ein Datenvolumen von 40 Zettabyte geben. Das sind eine Milliarde Terabyte Daten, die sich unmöglich von Menschenhand auswerten lassen.
Doch machen wir uns bitte nichts vor. Die PCs werden nicht nur dafür da sein, gigantische Datenmengen zu durchforsten, oder unsere Arbeit interessanter zu gestalten. Der Gründer von Narrative Science Kristian Hammond kündigte in der Zeitschrift WIRED bereits vor zwei Jahren an, dass er im Jahr 2030 den Anteil elektronisch erstellter Texte auf über 90 Prozent einschätzt. In der Folge würden in den nächsten 16 Jahren die meisten Angestellten und Freiberufler ihren Job verlieren. Unabhängig davon ob sich die Prophezeiung von Hammond bewahrheitet, dürfte sich die Tätigkeit der Journalisten in den nächsten Jahren erheblich verändern.

 

Zum Surfen

http://tame.it
http://retresco.de
http://www.text-on.de

nach oben

Weitere aktuelle Beiträge

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »

Gewalt an Frauen bleibt Leerstelle

Gewalt gegen Frauen ist in Deutschland alltäglich. Und nicht nur in Politik und Justiz besteht großer Nachholbedarf im Kampf gegen geschlechtsspezifische Gewalt: Auch die journalistische Praxis zeigt deutliche Schwächen und erhebliche Leerstellen. Der aktuelle Trendreport der Otto Brenner Stiftung nimmt die Jahre 2020 bis 2022 in den Blick und stellt fest: Gewalt gegen Frauen wird isoliert dargestellt, ohne strukturelle Ursachen und Präventionsmöglichkeiten zu thematisieren. Das betrifft besonders deutsche Täter. Die Perspektive der Opfer bleibt unterbelichtet.
mehr »

Gewalt gegen Medienschaffende

Eine erneut alarmierende Bilanz zieht die internationale Organisation Reporters Sans Frontiers (RSF), die weltweit Angriffe und Gewalttaten gegen Journalist*innen und damit gegen die Pressefreiheit dokumentiert: 55 getötete, 550 inhaftierte, 55 in Geiselhaft genommene und 95 unter unklaren Umständen vermisste Medienschaffende sind bis Anfang Dezember für dieses Jahr zu beklagen.
mehr »

KI: Menschen wollen Regeln

Rund drei Viertel der Menschen in Deutschland sorgen sich einer Umfrage zufolge um die Glaubwürdigkeit der Medien, wenn Künstliche Intelligenz (KI) im Spiel ist. 90 Prozent der Befragten fordern dazu klare Regeln und Kennzeichnungen. Dies ergab eine am Mittwoch in Berlin veröffentlichte Studie der Medienanstalten. Für die repräsentative Erhebung "Transparenz-Check. Wahrnehmung von KI-Journalismus" wurden online 3.013 Internetnutzer*innen befragt.
mehr »