Roboterjournalismus

Journalistische Arbeit im Zuge modernster Programmiertechnik

Roboterjournalismus wird von manchen Beobachtern als der wichtigste Trend der Medienbranche angesehen. Damit ist übrigens nicht nur das automatische Erstellen von Artikeln gemeint. Auf dem European Newspaper Congress in Wien wurden kürzlich diverse Softwarelösungen vorgestellt, die Verlage gegen klingende Münze inhaltlich unterstützen und deren Kosten drücken sollen.

Foto: alphaspirit / fotolia.com
Foto: alphaspirit / fotolia.com

Tame verspricht den Datenwust des sozialen Netzwerks Twitter zu zähmen. Der Ableger der Berliner Humboldt Universität bietet den Kunden zu jedem Suchbegriff für einen bestimmten Zeitraum alle relevanten Inhalte und die Namen der aktivsten Nutzer an. Twitter ist als Gradmesser interessant. Nirgendwo sonst kann man so gut ablesen, welche Themen beim Publikum „in“ sind. Die Daten sind zwar im Netz frei verfügbar. Doch um Trends abzulesen, muss man die vielen Informationen sammeln und analysieren. Für einen Menschen wäre dies eine wenig attraktive und zudem teure weil langatmige Aufgabe.
In der Kongress-Ankündigung wurde ebenfalls damit geworben, dass die Firma Retresco Mitarbeiter durch Rechenpower ersetzen kann. Gigantische Datensätze oder das komplette Web werden ausgewertet und die Resultate automatisch zusammengestellt. Doch das Ende der Fahnenstange ist noch nicht in Sicht. Einer der Pioniere der Branche, Narrative Science, bietet mittlerweile die vollautomatische Auswertung des komplexen Statistik-Tools Google Analytics an. Die patentierte Software Quill kann die Entwicklung eines Online-Portals trotz unzähliger Faktoren in einen gut lesbaren Text verwandeln.

Preiswerte Detailberichte

Doch heutige Programme können nicht nur Redaktionen unterstützen, sie können eigenständig ganze Texte verfassen. Auf www.fussballheute.net kann man einige Beispiele sehen, die sich bei weitem nicht am Rande des Möglichen bewegen. Zwei Faktoren werden von den Dienstleistern immer wieder erwähnt: Hyper-Individualisierung und Hyper-Lokalisierung. Da die Berichte der Roboter preiswert sind, wird die Technik überall dort eingesetzt, wo viele Daten anfallen und entsprechend viele Artikel veröffentlicht werden können. Gut geeignet sind zum Beispiel Kataloge der Tourismusbranche, Produktbeschreibungen für Online-Shops, Wetterberichte, Hochwasserlageberichte oder Erdbebenmeldungen. Auch die Spielberichte verschiedenster Sportarten bieten sich dafür an. Bei einem Euro pro Artikel lohnen sich nicht nur Schilderungen populärer Spiele der 1. Fußball-Liga, sondern auch Ergebnisse eines Außenseitersports der Mannschaft aus Klein Kleckersdorf. Doch auch die Fans könnten bald zum Zug kommen. Diese können in naher Zukunft wirklich jede einzelne Aktivität ihres Lieblingssportlers über Jahre hinweg verfolgen. Ein Redakteur würde sich niemals die Mühe machen, alle Details zu einem Athleten zusammenzutragen. Die automatischen Autoren beschreiben hingegen jedes noch so winzige Detail, den die Anhänger lesen und die Suchmaschinen indizieren können. Daneben könnte es im Web schon bald maschinelle Hinweise über gesperrte Straßen, verspätete Busse oder veränderte Anfangszeiten von Ratssitzungen geben, um nur ein paar Beispiele zu nennen. Bei einem maximalen Output von täglich 3,6 Millionen Artikeln in vielen verschiedenen Sprachen ist rein theoretisch alles möglich.
Wann und in welchem Umfang die Verlage auf den Zug aufspringen, wird vor allem davon abhängen, ob sie mit diesem Content ihren Umsatz steigern können. Ist die Anzahl der Interessenten hoch genug und das Geschäftsmodell stimmig, würde auch in Deutschland einer computergestützten Sportberichterstattung und vielen anderen Anwendungsgebieten nichts mehr im Wege stehen.
Eine aktuelle Studie des schwedischen Forschers Christer Clerwall kam zu dem Ergebnis, dass derzeit kaum ein Unterschied zwischen Texten von Menschen- und Roboterhand erkennbar ist. Die Beiträge des Kollegen Computer wurden in den Tests zumeist als gut formuliert, informativ und vertrauenswürdig empfunden. Nur wenige Leser bezeichneten die programmierten Artikel als zu eintönig.
Die Verarbeitung der Informationen ist hohe Programmierkunst, weswegen es in Deutschland bisher nur zwei Anbieter gibt. Wenn der Algorithmus auf eine neue Aufgabe vorbereitet werden soll, muss zunächst manuell ein Regelwerk eingegeben werden. So wird beispielsweise festgelegt, dass ein Fußballspieler bei einer roten Karte den Platz verlassen muss. Auch müssen Vorgaben zur Bewertung von bestimmten Ereignissen eingepflegt werden. Wenn der 1. FC Bayern München gegen den Tabellenletzten 0:4 verliert, so hätte dies eine wirklich herausragende Bedeutung. Auch die grobe Struktur zur Gestaltung des Textes muss vorgegeben werden. Der nächste Schritt ist die Implementierung der Sprachen. Der Einbau komplizierter Sprachen inklusive Grammatik und Orthografie dauert bis zu zwei Monate, simple Sprachen erlernt der Computer in der halben Zeitspanne. Die Datenquelle muss im Gegensatz zu früher keinen starren Regeln folgen. Anfangs erinnerte die Generierung von Beiträgen an einen Lückentext, bei dem der PC lediglich die Aufgabe übernahm, Variablen in die Lücken einzusetzen. Hatte sich die Quelle geringfügig verändert, musste die Programmierung jeweils angepasst werden. Heutzutage erkennt die Software immer besser, wo sich in der Quelle Füllwörter und wo sich wichtige Informationen verbergen.
Natürlich sind dem Roboterjournalismus noch immer Grenzen gesetzt. Noch kann das Programm nicht sehen, ob der Torwart am Ende eines Spiels zufrieden oder grimmig schaut. Auch kann er nicht bewerten, ob ein Spiel die Wende einläuten oder das Schicksal eines Trainers besiegeln wird. Was den Applikationen zur Einordnung an Lebenserfahrung und Wissen fehlt, müssen weiterhin die Redakteure leisten. Daran dürfte sich so bald nichts ändern.

Schöne neue Roboterwelt?

Cord Dreyer von Text On weist im Gespräch darauf hin, dass die Menge frei verfügbarer Informationen weiterhin gigantisch ansteigen wird. Im Jahr 2020 soll es ein Datenvolumen von 40 Zettabyte geben. Das sind eine Milliarde Terabyte Daten, die sich unmöglich von Menschenhand auswerten lassen.
Doch machen wir uns bitte nichts vor. Die PCs werden nicht nur dafür da sein, gigantische Datenmengen zu durchforsten, oder unsere Arbeit interessanter zu gestalten. Der Gründer von Narrative Science Kristian Hammond kündigte in der Zeitschrift WIRED bereits vor zwei Jahren an, dass er im Jahr 2030 den Anteil elektronisch erstellter Texte auf über 90 Prozent einschätzt. In der Folge würden in den nächsten 16 Jahren die meisten Angestellten und Freiberufler ihren Job verlieren. Unabhängig davon ob sich die Prophezeiung von Hammond bewahrheitet, dürfte sich die Tätigkeit der Journalisten in den nächsten Jahren erheblich verändern.

 

Zum Surfen

http://tame.it
http://retresco.de
http://www.text-on.de

nach oben

Weitere aktuelle Beiträge

Wie prekär ist der Journalismus?

„Daten statt Anekdoten“, das war das Ziel des Forschungsprojekts „Prekarisierung im Journalismus“ an der LMU München, das nun nach fast fünf Jahren mit einem internationalen Symposium in München endete. Zu den Daten aus Europa hatte auch die dju in ver.di ihren Beitrag geleistet, als sie ihre Mitglieder um Teilnahme an der Online-Befragung bat und in M über die Ergebnisse berichtete.
mehr »

Pokerspiele der Süddeutschen Zeitung

Bei einer Betriebsversammlung des Süddeutschen Verlags am vergangenen Dienstag ruderte Geschäftsführer Dr. Christian Wegner etwas zurück. Er deutete an, dass der Stellenabbau in der Redaktion der Süddeutschen Zeitung (SZ) nicht ganz so dramatisch ausfallen könnte wie bislang befürchtet. In der vergangenen Woche war bekannt geworden, dass der Verlag in München für das laufende Jahr mit einem Abbau von 30 Vollzeitstellen plant. Die dju in ver.di kritisiert das Vorhaben scharf.
mehr »

Leipzig: Rechtswidrige Durchsuchung

Ein 19-jähriger Journalist hatte im Juni vergangenen Jahres Fotos einer Antifa-Demonstration im Internet veröffentlicht. Die Staatsanwaltschaft Leipzig durchsuchte daraufhin seine Wohnräume und beschlagnahmte mehrere Datenträger. Seine nachgewiesene journalistische Tätigkeit wurde dabei ignoriert. Das Landgericht Leipzig bezeichnet das Vorgehen nun als rechtswidrig.
mehr »

Fake oder Fiktion: Wer darf was?

Bei Fake News dreht es sich meist um Falschaussagen, Lügen, die als Journalismus getarnt sind oder Angriffe auf die Pressefreiheit. In der Literatur hat Wahrheit und Authentizität einen ganz anderen Stellenwert. Bei der Gesprächsrunde „Fake News oder Fiktion?“ auf der diesjährigen Buchmesse im Leipzig loteten die Teilnehmer*innen die Grenzen zwischen journalistischen und belletristischen Formaten aus.
mehr »