Roboterjournalismus

Journalistische Arbeit im Zuge modernster Programmiertechnik

Roboterjournalismus wird von manchen Beobachtern als der wichtigste Trend der Medienbranche angesehen. Damit ist übrigens nicht nur das automatische Erstellen von Artikeln gemeint. Auf dem European Newspaper Congress in Wien wurden kürzlich diverse Softwarelösungen vorgestellt, die Verlage gegen klingende Münze inhaltlich unterstützen und deren Kosten drücken sollen.

Foto: alphaspirit / fotolia.com
Foto: alphaspirit / fotolia.com

Tame verspricht den Datenwust des sozialen Netzwerks Twitter zu zähmen. Der Ableger der Berliner Humboldt Universität bietet den Kunden zu jedem Suchbegriff für einen bestimmten Zeitraum alle relevanten Inhalte und die Namen der aktivsten Nutzer an. Twitter ist als Gradmesser interessant. Nirgendwo sonst kann man so gut ablesen, welche Themen beim Publikum „in“ sind. Die Daten sind zwar im Netz frei verfügbar. Doch um Trends abzulesen, muss man die vielen Informationen sammeln und analysieren. Für einen Menschen wäre dies eine wenig attraktive und zudem teure weil langatmige Aufgabe.
In der Kongress-Ankündigung wurde ebenfalls damit geworben, dass die Firma Retresco Mitarbeiter durch Rechenpower ersetzen kann. Gigantische Datensätze oder das komplette Web werden ausgewertet und die Resultate automatisch zusammengestellt. Doch das Ende der Fahnenstange ist noch nicht in Sicht. Einer der Pioniere der Branche, Narrative Science, bietet mittlerweile die vollautomatische Auswertung des komplexen Statistik-Tools Google Analytics an. Die patentierte Software Quill kann die Entwicklung eines Online-Portals trotz unzähliger Faktoren in einen gut lesbaren Text verwandeln.

Preiswerte Detailberichte

Doch heutige Programme können nicht nur Redaktionen unterstützen, sie können eigenständig ganze Texte verfassen. Auf www.fussballheute.net kann man einige Beispiele sehen, die sich bei weitem nicht am Rande des Möglichen bewegen. Zwei Faktoren werden von den Dienstleistern immer wieder erwähnt: Hyper-Individualisierung und Hyper-Lokalisierung. Da die Berichte der Roboter preiswert sind, wird die Technik überall dort eingesetzt, wo viele Daten anfallen und entsprechend viele Artikel veröffentlicht werden können. Gut geeignet sind zum Beispiel Kataloge der Tourismusbranche, Produktbeschreibungen für Online-Shops, Wetterberichte, Hochwasserlageberichte oder Erdbebenmeldungen. Auch die Spielberichte verschiedenster Sportarten bieten sich dafür an. Bei einem Euro pro Artikel lohnen sich nicht nur Schilderungen populärer Spiele der 1. Fußball-Liga, sondern auch Ergebnisse eines Außenseitersports der Mannschaft aus Klein Kleckersdorf. Doch auch die Fans könnten bald zum Zug kommen. Diese können in naher Zukunft wirklich jede einzelne Aktivität ihres Lieblingssportlers über Jahre hinweg verfolgen. Ein Redakteur würde sich niemals die Mühe machen, alle Details zu einem Athleten zusammenzutragen. Die automatischen Autoren beschreiben hingegen jedes noch so winzige Detail, den die Anhänger lesen und die Suchmaschinen indizieren können. Daneben könnte es im Web schon bald maschinelle Hinweise über gesperrte Straßen, verspätete Busse oder veränderte Anfangszeiten von Ratssitzungen geben, um nur ein paar Beispiele zu nennen. Bei einem maximalen Output von täglich 3,6 Millionen Artikeln in vielen verschiedenen Sprachen ist rein theoretisch alles möglich.
Wann und in welchem Umfang die Verlage auf den Zug aufspringen, wird vor allem davon abhängen, ob sie mit diesem Content ihren Umsatz steigern können. Ist die Anzahl der Interessenten hoch genug und das Geschäftsmodell stimmig, würde auch in Deutschland einer computergestützten Sportberichterstattung und vielen anderen Anwendungsgebieten nichts mehr im Wege stehen.
Eine aktuelle Studie des schwedischen Forschers Christer Clerwall kam zu dem Ergebnis, dass derzeit kaum ein Unterschied zwischen Texten von Menschen- und Roboterhand erkennbar ist. Die Beiträge des Kollegen Computer wurden in den Tests zumeist als gut formuliert, informativ und vertrauenswürdig empfunden. Nur wenige Leser bezeichneten die programmierten Artikel als zu eintönig.
Die Verarbeitung der Informationen ist hohe Programmierkunst, weswegen es in Deutschland bisher nur zwei Anbieter gibt. Wenn der Algorithmus auf eine neue Aufgabe vorbereitet werden soll, muss zunächst manuell ein Regelwerk eingegeben werden. So wird beispielsweise festgelegt, dass ein Fußballspieler bei einer roten Karte den Platz verlassen muss. Auch müssen Vorgaben zur Bewertung von bestimmten Ereignissen eingepflegt werden. Wenn der 1. FC Bayern München gegen den Tabellenletzten 0:4 verliert, so hätte dies eine wirklich herausragende Bedeutung. Auch die grobe Struktur zur Gestaltung des Textes muss vorgegeben werden. Der nächste Schritt ist die Implementierung der Sprachen. Der Einbau komplizierter Sprachen inklusive Grammatik und Orthografie dauert bis zu zwei Monate, simple Sprachen erlernt der Computer in der halben Zeitspanne. Die Datenquelle muss im Gegensatz zu früher keinen starren Regeln folgen. Anfangs erinnerte die Generierung von Beiträgen an einen Lückentext, bei dem der PC lediglich die Aufgabe übernahm, Variablen in die Lücken einzusetzen. Hatte sich die Quelle geringfügig verändert, musste die Programmierung jeweils angepasst werden. Heutzutage erkennt die Software immer besser, wo sich in der Quelle Füllwörter und wo sich wichtige Informationen verbergen.
Natürlich sind dem Roboterjournalismus noch immer Grenzen gesetzt. Noch kann das Programm nicht sehen, ob der Torwart am Ende eines Spiels zufrieden oder grimmig schaut. Auch kann er nicht bewerten, ob ein Spiel die Wende einläuten oder das Schicksal eines Trainers besiegeln wird. Was den Applikationen zur Einordnung an Lebenserfahrung und Wissen fehlt, müssen weiterhin die Redakteure leisten. Daran dürfte sich so bald nichts ändern.

Schöne neue Roboterwelt?

Cord Dreyer von Text On weist im Gespräch darauf hin, dass die Menge frei verfügbarer Informationen weiterhin gigantisch ansteigen wird. Im Jahr 2020 soll es ein Datenvolumen von 40 Zettabyte geben. Das sind eine Milliarde Terabyte Daten, die sich unmöglich von Menschenhand auswerten lassen.
Doch machen wir uns bitte nichts vor. Die PCs werden nicht nur dafür da sein, gigantische Datenmengen zu durchforsten, oder unsere Arbeit interessanter zu gestalten. Der Gründer von Narrative Science Kristian Hammond kündigte in der Zeitschrift WIRED bereits vor zwei Jahren an, dass er im Jahr 2030 den Anteil elektronisch erstellter Texte auf über 90 Prozent einschätzt. In der Folge würden in den nächsten 16 Jahren die meisten Angestellten und Freiberufler ihren Job verlieren. Unabhängig davon ob sich die Prophezeiung von Hammond bewahrheitet, dürfte sich die Tätigkeit der Journalisten in den nächsten Jahren erheblich verändern.

 

Zum Surfen

http://tame.it
http://retresco.de
http://www.text-on.de

nach oben

weiterlesen

Warnung vor „medialer Paralleljustiz“

Der renommierte Bremer Strafverteidiger und Menschenrechtler Bernhard Docke, der vor allem als Anwalt des Guantanamo-Häftlings Murat Kurnaz bekannt wurde, hat den Medien die Leviten gelesen: Kriminal-Berichterstattung wirke oft wie eine „mediale Paralleljustiz“ und drohe „die Rechtskultur zu verrohen“, sagte Docke jetzt bei einem Vortrag. Am Rande der Veranstaltung warnte er auch vor vorverurteilenden Begriffen wie „sich vor Gericht verantworten müssen“.
mehr »

„Starker Einsatz“ für starke Frauen

Regisseurin Barbara Rohm und Kamerafrau Birgit Gudjonsdottir sind am Freitagabend bei der feierlichen Gala des Deutschen Schauspielpreises mit dem ver.di-Preis „Starker Einsatz“ ausgezeichnet worden. Die ZDF/Arte-Serie „Bad Banks“ räumte in den Kategorien „Schauspielerin in einer Hauptrolle“ und „Schauspieler in einer Hauptrolle“ gleich zwei Mal ab. Gut lief es auch für die ARD-Produktionen „Gladbeck“ und „Babylon Berlin“. Am meisten Beachtung fanden die klaren Worte eines jungen Ausnahmetalents zur Spaltung und zum Rechtsruck innerhalb der Gesellschaft.
mehr »

Vom kleinen Klüngel auf die große Bühne

Egal, ob Talkshows oder Titelstorys: Die Neue Rechte setzt die Themen, bestimmt die Begriffe. „Vom kleinen Klüngel wurde sie auf die ganz große politische Bühne gespült“, sagt der Journalist Hanning Voigts von der „Frankfurter Rundschau“. Den Mainstream-Medien wird vorgeworfen, dabei mitgeholfen zu haben. Mit ihrer Berichterstattung rückten sie rechte Themen stark in den Fokus. Die Frage: Warum machen sie das und was lässt sich dagegen tun? stand beim „Runden Tisch für Interkulturellen Mediendialog“ zur Medienarbeit der Neuen Rechten in Frankfurt am Main im Mittelpunkt.
mehr »

Postfach im Darknet

Auf Basis der Software SecureDrop haben Medien wie die New York Times, die Washington Post und der britische Guardian abhörsichere Postfächer im Darknet installiert. Das schützt auch Whistleblower ohne größere IT-Kenntnisse vor Enttarnung. Er wusste, was er tat: Als Edward Snow­den im Jahr 2013 mit dem Journalisten Gleen Greenwald Kontakt aufnahm, befand er sich noch in dem Land, dessen Behörden ihn bald als Staatsfeind jagen würden. Anonymisierungstechnologien, die er virtuos beherrschte, ermöglichten ihm, selbst zu bestimmen, ob und wann er seine Identität offenbart.
mehr »