Roboterjournalismus

Journalistische Arbeit im Zuge modernster Programmiertechnik

Roboterjournalismus wird von manchen Beobachtern als der wichtigste Trend der Medienbranche angesehen. Damit ist übrigens nicht nur das automatische Erstellen von Artikeln gemeint. Auf dem European Newspaper Congress in Wien wurden kürzlich diverse Softwarelösungen vorgestellt, die Verlage gegen klingende Münze inhaltlich unterstützen und deren Kosten drücken sollen.

Foto: alphaspirit / fotolia.com
Foto: alphaspirit / fotolia.com

Tame verspricht den Datenwust des sozialen Netzwerks Twitter zu zähmen. Der Ableger der Berliner Humboldt Universität bietet den Kunden zu jedem Suchbegriff für einen bestimmten Zeitraum alle relevanten Inhalte und die Namen der aktivsten Nutzer an. Twitter ist als Gradmesser interessant. Nirgendwo sonst kann man so gut ablesen, welche Themen beim Publikum „in“ sind. Die Daten sind zwar im Netz frei verfügbar. Doch um Trends abzulesen, muss man die vielen Informationen sammeln und analysieren. Für einen Menschen wäre dies eine wenig attraktive und zudem teure weil langatmige Aufgabe.
In der Kongress-Ankündigung wurde ebenfalls damit geworben, dass die Firma Retresco Mitarbeiter durch Rechenpower ersetzen kann. Gigantische Datensätze oder das komplette Web werden ausgewertet und die Resultate automatisch zusammengestellt. Doch das Ende der Fahnenstange ist noch nicht in Sicht. Einer der Pioniere der Branche, Narrative Science, bietet mittlerweile die vollautomatische Auswertung des komplexen Statistik-Tools Google Analytics an. Die patentierte Software Quill kann die Entwicklung eines Online-Portals trotz unzähliger Faktoren in einen gut lesbaren Text verwandeln.

Preiswerte Detailberichte

Doch heutige Programme können nicht nur Redaktionen unterstützen, sie können eigenständig ganze Texte verfassen. Auf www.fussballheute.net kann man einige Beispiele sehen, die sich bei weitem nicht am Rande des Möglichen bewegen. Zwei Faktoren werden von den Dienstleistern immer wieder erwähnt: Hyper-Individualisierung und Hyper-Lokalisierung. Da die Berichte der Roboter preiswert sind, wird die Technik überall dort eingesetzt, wo viele Daten anfallen und entsprechend viele Artikel veröffentlicht werden können. Gut geeignet sind zum Beispiel Kataloge der Tourismusbranche, Produktbeschreibungen für Online-Shops, Wetterberichte, Hochwasserlageberichte oder Erdbebenmeldungen. Auch die Spielberichte verschiedenster Sportarten bieten sich dafür an. Bei einem Euro pro Artikel lohnen sich nicht nur Schilderungen populärer Spiele der 1. Fußball-Liga, sondern auch Ergebnisse eines Außenseitersports der Mannschaft aus Klein Kleckersdorf. Doch auch die Fans könnten bald zum Zug kommen. Diese können in naher Zukunft wirklich jede einzelne Aktivität ihres Lieblingssportlers über Jahre hinweg verfolgen. Ein Redakteur würde sich niemals die Mühe machen, alle Details zu einem Athleten zusammenzutragen. Die automatischen Autoren beschreiben hingegen jedes noch so winzige Detail, den die Anhänger lesen und die Suchmaschinen indizieren können. Daneben könnte es im Web schon bald maschinelle Hinweise über gesperrte Straßen, verspätete Busse oder veränderte Anfangszeiten von Ratssitzungen geben, um nur ein paar Beispiele zu nennen. Bei einem maximalen Output von täglich 3,6 Millionen Artikeln in vielen verschiedenen Sprachen ist rein theoretisch alles möglich.
Wann und in welchem Umfang die Verlage auf den Zug aufspringen, wird vor allem davon abhängen, ob sie mit diesem Content ihren Umsatz steigern können. Ist die Anzahl der Interessenten hoch genug und das Geschäftsmodell stimmig, würde auch in Deutschland einer computergestützten Sportberichterstattung und vielen anderen Anwendungsgebieten nichts mehr im Wege stehen.
Eine aktuelle Studie des schwedischen Forschers Christer Clerwall kam zu dem Ergebnis, dass derzeit kaum ein Unterschied zwischen Texten von Menschen- und Roboterhand erkennbar ist. Die Beiträge des Kollegen Computer wurden in den Tests zumeist als gut formuliert, informativ und vertrauenswürdig empfunden. Nur wenige Leser bezeichneten die programmierten Artikel als zu eintönig.
Die Verarbeitung der Informationen ist hohe Programmierkunst, weswegen es in Deutschland bisher nur zwei Anbieter gibt. Wenn der Algorithmus auf eine neue Aufgabe vorbereitet werden soll, muss zunächst manuell ein Regelwerk eingegeben werden. So wird beispielsweise festgelegt, dass ein Fußballspieler bei einer roten Karte den Platz verlassen muss. Auch müssen Vorgaben zur Bewertung von bestimmten Ereignissen eingepflegt werden. Wenn der 1. FC Bayern München gegen den Tabellenletzten 0:4 verliert, so hätte dies eine wirklich herausragende Bedeutung. Auch die grobe Struktur zur Gestaltung des Textes muss vorgegeben werden. Der nächste Schritt ist die Implementierung der Sprachen. Der Einbau komplizierter Sprachen inklusive Grammatik und Orthografie dauert bis zu zwei Monate, simple Sprachen erlernt der Computer in der halben Zeitspanne. Die Datenquelle muss im Gegensatz zu früher keinen starren Regeln folgen. Anfangs erinnerte die Generierung von Beiträgen an einen Lückentext, bei dem der PC lediglich die Aufgabe übernahm, Variablen in die Lücken einzusetzen. Hatte sich die Quelle geringfügig verändert, musste die Programmierung jeweils angepasst werden. Heutzutage erkennt die Software immer besser, wo sich in der Quelle Füllwörter und wo sich wichtige Informationen verbergen.
Natürlich sind dem Roboterjournalismus noch immer Grenzen gesetzt. Noch kann das Programm nicht sehen, ob der Torwart am Ende eines Spiels zufrieden oder grimmig schaut. Auch kann er nicht bewerten, ob ein Spiel die Wende einläuten oder das Schicksal eines Trainers besiegeln wird. Was den Applikationen zur Einordnung an Lebenserfahrung und Wissen fehlt, müssen weiterhin die Redakteure leisten. Daran dürfte sich so bald nichts ändern.

Schöne neue Roboterwelt?

Cord Dreyer von Text On weist im Gespräch darauf hin, dass die Menge frei verfügbarer Informationen weiterhin gigantisch ansteigen wird. Im Jahr 2020 soll es ein Datenvolumen von 40 Zettabyte geben. Das sind eine Milliarde Terabyte Daten, die sich unmöglich von Menschenhand auswerten lassen.
Doch machen wir uns bitte nichts vor. Die PCs werden nicht nur dafür da sein, gigantische Datenmengen zu durchforsten, oder unsere Arbeit interessanter zu gestalten. Der Gründer von Narrative Science Kristian Hammond kündigte in der Zeitschrift WIRED bereits vor zwei Jahren an, dass er im Jahr 2030 den Anteil elektronisch erstellter Texte auf über 90 Prozent einschätzt. In der Folge würden in den nächsten 16 Jahren die meisten Angestellten und Freiberufler ihren Job verlieren. Unabhängig davon ob sich die Prophezeiung von Hammond bewahrheitet, dürfte sich die Tätigkeit der Journalisten in den nächsten Jahren erheblich verändern.

 

Zum Surfen

http://tame.it
http://retresco.de
http://www.text-on.de

nach oben

Weitere aktuelle Beiträge

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

Rundfunkreform mit vielen Fragezeichen

Bis zuletzt hatten die öffentlich-rechtlichen Anstalten auf ein Ende der Blockade einer Beitragserhöhung durch die Ministerpräsidenten der Länder gehofft. Die Verweigerungshaltung der Politik ließ ihnen am Ende keine Wahl: Am 19. November kündigten ARD und ZDF eine Klage beim Bundesverfassungsgericht an, um ihren Anspruch auf die von der Kommission zur Ermittlung des Finanzbedarfs (KEF) errechnete Empfehlung einer Beitragserhöhung um 58 Cent auf 18,94 Euro monatlich durchzusetzen.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »