Es ist sieben Jahre her, dass M erstmalig Datenjournalismus als Titelthema brachte. Unter der Überschrift „Spannende Recherche im Netz” wurde von damals noch exotisch klingenden Begriffen wie „Open Data” und „Datenbank-Journalismus” berichtet. Seither ist aus einem Nischenthema ein Genre erwachsen.
Indidikator für die Entwicklung dieses Genres ist etwa, dass das Reporterforum seit zwei Jahren in seinem Reporterpreis Auszeichnungen für Datenjournalismus vergibt. Oder die langsam aber stetig steigende Zahl der Stellenanzeigen, wie sie unlängst die Süddeutsche Zeitung veröffentlichte: Der mittlerweile vierte Datenjournalist für die Redaktion wird gesucht.
Die Datenjournalisten der SZ hatten ihren Anteil an den „Panama Papers”, der Recherche der SZ und anderer Redaktionen über die Steueroase in Mittelamerika 2016. An ihrer Herangehensweise lässt sich gut zeigen: Die eine Definition von Datenjournalismus gibt es nicht. Oder besser gesagt, dass Selbstverständnis darüber, was Datenjournalismus genau ist, variiert. Die Panama Papers etwa könnte man auch schlicht als „Computer Assisted Reporting” (CAR, computergestützte Recherche) verstehen – eine jahrzehntealte Methode im investigativen Bereich. Datenvisualisierungen spielten bei der Veröffentlichung des preisgekrönten Werks über die Steueroase keine zentrale Rolle. Doch ist es dieser Faktor, den manche als wesentlichen Aspekt für Datenjournalismus oder data-driven journalism (#ddj) verstehen: Die zugrundeliegenden Daten spielen nicht nur in der Recherche, sondern auch in dem veröffentlichen Werk in Form visueller Elemente eine wichtige Rolle. So oder so, einig dürften sich alle sein: Datensätze sind beim Datenjournalismus wesentlich. Mittels manueller Auswertung, etwa per Tabellen-Kalkulationsprogrammen wie Excel, oder halb- oder ganz automatischen Verfahren durch Softwarebibliotheken oder selbstgeschriebenem Programmcode werden die Datensätze ausgewertet und nach Auffälligkeiten abgeklopft. Als Faustregel bei einem datenjournalistischen Stück kann gelten: 70 Prozent der Arbeit steckt in der Datenbeschaffung, -säuberung und -validierung. Bevor die Daten überhaupt veröffentlichungsreif sind – in welcher Form auch immer – liegt viel Arbeit hinter den Datenredakteuren. Das fängt an beim „Befreien” der Daten aus Schriftstücken oder pdf-Dateien inklusive Lesefehlern bei der Umwandlung, reicht über die Vereinheitlichung von Formaten bis hin zu zahllosen weiteren Fallstricken, die sich während des Prozesses auftun. Sprich: Wer sich mit Datenjournalismus befasst, sollte eine hohe Frustationsschwelle und eine gewisse Affinität für Statistik mitbringen.
Die Belohnung für hartnäckiges Graben in Datenbergen sind Erkenntnisse und Perspektiven auf Sachverhalte, die bei klassischen Recherchemethoden verborgen blieben. Und diese lassen sich pointiert an die Leser_innen dank einer mittlerweile erklecklichen Anzahl an Visualisierungmethoden und -formaten unmittelbar weitergeben.
Das Visuelle ist wesentlich
John Burn-Murdoch, Datenjournalist bei der Financial Times (FT) hielt Anfang dieses Jahres einen Vortrag mit dem Titel „Data Journalism Manifesto”. In dem stellte er fest: „speadsheet journalism != data journalism”. Die Zeichenfolge „!=„ steht im Programmierwesen für „ungleich”: Tabellen-Journalismus sei nicht das gleiche wie Datenjournalismus. Laut Murdoch seien mehr und mehr Redakteure in der Lage, mit Statistiken zu arbeiten. Daten, die jedem Journalisten, der zum gleichen Thema arbeitet, zugänglich sind, würden also nichts nützen, um seinen Lesern einzigartige Erkenntnisse liefern zu können. Unter Datenjournalismus müsse vielmehr verstanden werden, so Murdoch, eigene Datensätze zu entwickeln. Das könnte dadurch geschehen, eigene Daten zu sammeln bzw. verschiedene Datensätze zusammenzuführen. Oder eben dadurch, mit Datenmengen in außergewöhnlichen Formaten und Umfängen zu arbeiten.
Eines der Beispiele für solch Vorgehen, das Murdoch anführt, stammt aus dem US-Wahlkampf: Die Washington Post wertete vergangenen Herbst über den Zeitraum eines Jahres die Startseite des Angebots „Google News” automatisch Tag für Tag aus. Je nachdem ob Donald Trump, Hillary Clinton oder beide zusammen in den Überschriften und Teasertexten erwähnt wurden. Ein Screenshot der Startseite wurde an den entsprechenden Stellen unterschiedlich eingefärbt. Durch diese Abstraktion konnte die Dominanz von Trump im Nachrichtengeschehen in seinem Muster sichtbar gemacht wurde. Die Post nutzt die Darstellungsform, um in Monatsschritten den Verlauf des Wahlkampfs zu rekapitulieren. Erwähnenswert dabei ist auch, dass Teil des Beitrags die Erläuterung des methodischen Vorgehens selbst war. So habe man 3.5 Millionen Textelemente ausgewertet: 60.000 erwähnten Trump, rund 25.000 nannten Clinton. Nur etwas mehr als 4.000 bezogen sich auf beide.
Die visuelle Darstellung der Datenarbeit hält der FT-Redakteur für wesentlich, um sich von der Arbeit anderer Publikationen abzusetzen. Visuelle Elemente ließen sich nicht zuletzt über Social Media-Kanäle gut verbreiten und so potentielle neue Abonnenten gewinnen. Murdoch verweist auf einen Report der New York Times (NYT) von Anfang 2017: Der wurde von einer hausinternen „2020 Group” erstellt und diskutiert die strategischen Notwendigkeiten für das bedeutende US-Medienhaus in den kommenden Jahren. Dort ist auch zu lesen, dass seit 2014 der Anteil von Beiträgen mit visuellen Elementen – Fotos, Videos oder Diagrammen – von nahezu Null auf rund 12 Prozent im Herbst 2016 gestiegen sei.
Das Ende der Leuchttürme
Einer, der an der Produktion solcher Elemente beteiligt ist, ist Gregor Aisch. Er ging 2014 aus Magdeburg, wo er Computervisualistik studiert hatte, zur Grafikabteilung der NYT. Zuvor hatte er sich als Freiberufler über mehrere datenjournalistische Stücke und Fachbeiträge, aber auch der (Mit-)Entwicklung von entsprechender Software – etwa dem Datenwerkzeug „DataWrapper” – profiliert. Seit Herbst 2016 ist Aisch zurück in Deutschland und arbeitet von Berlin aus für die renommierte Zeitung in den USA. Er berichtet, dass die rund 40-köpfige Grafikabteilung der NYT mittlerweile auf eigenen Füßen stehe, das Selbstverständnis habe sich gewandelt: Statt anderen Redaktionsteilen Grafiken zuzuliefern, würde man selbst Themen finden und umsetzen. Dabei habe sich das Team von den Leuchtturmprojekten abgewandt, um aktueller sein zu können. Aisch freut diese Entwicklung, denn er meint: „ Es gibt nichts Frustrierendes, als zwei Monate an einem Stück zu arbeiten und links und rechts geht die Welt unter.” Der Trend, schneller Grafiken aktuell liefern zu können, führe dazu, dass online interaktive Elemente in den Grafiken reduziert würden oder gar ganz wegfielen. Das erklärt Aisch einmal damit, dass die Auswertungen der Nutzung interaktiver Elemente gezeigt habe, dass sie nur wenig Beachtung fänden. Zweitens seien sie angesichts knapper Deadlines in guter Qualität schlicht nicht realisierbar.
Tatsächlich ist seit vergangen Jahr ein solcher Paradigmenwechsel auch hierzulande beim Journalismus im Netz zu beobachten: Die langen Scroll-Geschichten, die großformatig Bilder, Grafiken, Videos und Ton miteinander zusammenbinden, werden weniger. Auch erscheinen kaum noch große aufwendige Datengeschichten mit viel Interaktivität. Das dürfte zum einen daran liegen, dass diese auf mobilen Geräten wenig Wirkung entfalten und noch dazu in der Umsetzung für die kleine Bildschirme extra Ressourcen benötigen. Der Rückgang könnte sowohl auf enttäuschende Klickzahlen als auch auf zusammengestrichene Budgets in Redaktionen hindeuten, die folglich hohen Produktionsaufwand scheuen. Eine andere Lesart wäre, dass es Ausdruck eines Reifeprozesses sei: Nach dem Hype rund um Datenvisualisierung und interaktive Scrollformate, dem „me too”-Effekt (guckt mal, wir machen das auch) haben die Redaktionen gelernt, den Einsatz solcher Elemente besser zu modulieren.
Weniger interaktive Funktionen
Den Trend mit dem Ende der Leuchtturm-Ära kann Wiebke Loosen bestätigten. Die Forscherin am Hamburger Hans-Bredow-Institut wertet seit einiger Zeit zusammen mit einem Kollegen die Gewinner der Data Journalismus Awards aus. Die Auszeichnung wird seit 2013 vom Global Editors Network vergeben. Zwar kam der Großteil der Preisträger weiterhin aus den USA – 2016 rund 80 Prozent – doch sei Datenjournalismus zunehmend ein globales Phänomen, berichtet Loosen. Sie weist daraufhin, dass die Auswertung der Preisträger nicht als Studie über den Einsatz von Datenjournalismus weltweit zu verstehen sei. Vielmehr wäre es eine Bestandsaufnahme der „Best Practice” des Genres. Überrascht habe sie, so Loosen, wie groß die Dominanz der Zeitungen bei dem Datenjournalismus-Preis sei. Inhaltlich läge der Fokus dabei auf politischen Themen. Doch sei ein Zuwachs von Wirtschaftsthemen zu beobachten; es würden mehr Finanzdaten verwendet, aber auch soziodemographische und Geo-Daten würden als Datengrundlage dienen. Das Maß an interaktiven Funktionen in den ausgezeichneten Werken sei rückläufig, dafür würden Audioformate Einzug halten. Darüber hinaus würden auch Versuche mit Virtual Reality mit Preisen bedacht.
Hinsichtlich der Entwicklung von Datenjournalismus in Deutschland sieht Loosen eine „Veralltäglichung durch kleine Tools”. Die „Form des Journalismus wird normaler”, meint die Forscherin. Denn das Wissen über Daten habe generell zugenommen, was dem Trend der „Datifizierung der Gesellschaft” entspräche.
„Überall angekommen”
Diese Beobachtung von Seiten der Wissenschaft deckt sich mit der Einschätzung der Praktikerin Christina Elmer. Sie, nicht mal Mitte 30, ist die wohl dienstälteste Datenjournalistin in Deutschland. Unlängst wurde sie in die Riege der Chefredaktion des Spiegel berufen – ein offensichtliches Zeichen dafür, wie wichtig man dort Datenjournalismus nimmt. In der Hamburger Redaktion leitet die studierte Journalistin und Biologin das „Datenlese”-Team. 2009 hatte sie ihren ersten Datenjob bei der bereits 2007 gegründeten dpa-Abteilung „Regio Data”, die sich jedoch mit datenbasierten Infografiken für Print im Lokaljournalismus nicht durchsetzen konnten. Elmer arbeitete dann im Investigativ-Ressort des Stern, bevor sie 2013 zu Spiegel Online kam.
Auch Elmer beschreibt, wie sich die Ausrichtung des Datenjournalismus in ihrer Redaktion geändert habe. Hieß es früher, „wir müssen etwas Tolles machen, eine große Sache”, läge jetzt der Fokus auf der nachhaltigen Verankerung der Methodik, dem alltäglichen Einsatz im Haus. Es gelänge, mehr und mehr Kollegen zu gewinnen, selber etwas umzusetzen. Ebenfalls würde die Entwicklung von Formaten wichtiger, die halbautomatisch aufgrund von Daten Beiträge vorbereiten. Ergebnisse, die hausintern durch solch „Roboterjournalismus” entstünden, würden anschließend noch veredelt werden. Ein Beispiel für diese Halbautomatisierung sind die Taktiktafeln zu Bundesligaspielen, die SpOn seit diesem Jahr veröffentlicht: Die setzen auf das Angebot des Sportdatenanbieters Opta auf und ermöglichen Spiegel Online-Redakteuren mittels einiger Parameter Tafeln zu Spielen zu generieren. Die dienen dann als zentrales Element für analytische Sporttexte. Übrigens liegen die Opta-Daten auch den Taktikauswertungen im Fernsehen, die dort üblicher geworden sind, zugrunde. Ein Fingerzeig dafür, dass Datenjournalismus längst nicht nur im Web stattfinden muss.
So stellt auch Christina Elmer hinsichtlich des Themas Datenjournalismus allgemein fest: „Angekommen ist es überall”; jeder wüsste ungefähr was es bedeutet. Einzig in der journalistischen Ausbildung sei es noch nicht wirklich verankert. Damit hat sie recht. Außer punktuellen Weiterbildungen, Inhouse-Schulungen oder Blockseminaren in Volontärskursen gibt es in Deutschland kein Angebot, bei dem man sich über mehrere Monate hinweg primär datenjournalistisch ausbilden könnte. Allerdings bietet die TU Dortmund im Rahmen ihres Wissenschaftsjournalismus-Bachelors als Zweitfach Datenjournalismus an. (S. 16–17) Und immerhin hat die Berliner Morgenpost gerade das erste Datenjournalismus-Volontariat vergeben. Und Google finanziert im Rahmen seiner Digital News Initative „Fellows”, die in Redaktionen recht gut bezahlte Praktika rund um „digitale Innovation” machen können.
Als Vorbild für eine Ausbildung im Datenjournalismus ließe sich das Curriculum des „Lede Program” der Columbia Universität in New York begreifen. Das einsemestrige Programm (es gibt auch ein zweisemestriges) besteht aus vier Bestandteilen: Grundlagen des Programmierens, Daten und Datenbanken, Algorithmen und Datenanalyse sowie Umsetzung eines Datenprojekts. Hier klingt die Antwort auf eine gern gestellte Frage an: Müssen Datenjournalisten programmieren können? Eine schwammige Antwort darauf wäre: Es kommt darauf an. In der Regel ist Datenjournalismus Teamarbeit – Arbeitsteilung und Spezialisierung ist vonnöten. Die Fähigkeiten zu beherrschen, ein guter Statistiker, Programmierer, Designer und Journalist gleichzeitig zu sein, dürfte den wenigstens beschieden sein. Dennoch sollten auch diejenigen, die in einem Datenjournalismus-Team nicht für die Programmierarbeit zuständig sind, ein fundiertes technisches Verständnis haben, um Probleme und Ansätze zu begreifen und beschreiben zu können. Neben Kenntnissen über Statistik und Webtechnologien braucht es aber auch jemanden mit Kenntnissen über Design sowie Usability (Bedienbarkeit) von Webanwendung. Dazu sollte im Team selbstredend journalistische Kompetenz vorhanden sein und schließlich muss sowohl das Projekt gemanagt werden als auch die Liaison mit anderen Abteilungen, Chefredaktion, dem Verlag und möglicherweise externen Dienstleistern gepflegt werden.
Der Mangel an Ausbildungsmöglichkeiten hierzulande lässt sich zum einen damit erklären, dass die dafür notwendigen Ausbilder fehlen, aber auch damit, dass die Nachfrage nach Datenjournalisten zu klein sein könnte. Die expliziten Datenteams in Redaktionen, die es in Deutschland derzeit gibt, bestehen zusammen vielleicht aus zwei Dutzend Personen: Neben der Süddeutschen Zeitung und Spiegel Online, halten sich Zeit Online, die Berliner Morgenpost, der Bayerischer Rundfunk und Correctiv solche Teams. In anderen Redaktionen gibt es noch den einen oder die andere, die sich als Datenjournalisten verstehen, etwa angedockt an ein Investigativressort oder als Einzelkämpfer. Und es gibt neben einigen wenigen Agenturen noch freie Journalisten, aber auch Programmierer und Designer, die in dem Sektor unterwegs sind. Alles in allem dürfte es sich um vielleicht hundert Personen handeln, die professionell im weiteren Sinne als Datenjournalisten gelten können. Viele davon lassen sich auf der jährlichen Konferenz von Netzwerk Recherche in Hamburg treffen, die dem Thema Datenjournalismus von Jahr zu Jahr mehr Platz eingeräumt hat.
Organisch gewachsene Teams
Es gibt zwei zentrale Probleme, die dem Aufblühen des Datenjournalismus-Genre im Wege stehen. Zum einen würde selbst eine bessere Ausbildungslage nicht schlagartig etwas ändern. Eigentlich alle Datenteams, die derzeit existieren, sind organisch gewachsen; meist vorangetrieben von einer Person, die mit Ausdauer viel Überzeugungsarbeit leisten musste, um Ressourcen und Freiräume zu erhalten. Selbst wenn man die Mittel hätte, vier oder mehr Personen auf einen Schlag für ein Datenteam einzustellen, würde das ohne jemanden, der eine Produzentenrolle ausfüllt, kaum funktionieren. Und nicht zuletzt weil sich Datenjournalismus in Deutschland de facto nicht systematisch lernen lässt, gibt es einen Mangel an dazu befähigten Personen. Zum anderen wollen sich viele Redaktionen keine Datenjournalisten leisten. Neben tatsächlichen wirtschaftlichen Fragen hängt das aber auch mit einer nach wie vor verbreiteten Printfixierung zusammen, die Investitionen in das Web nur auf das vermeintlich Nötigste beschränken. So bleibt die Berliner Morgenpost die einzige Regional-/Lokalzeitung, die sich ein mittlerweile vielfach mit Preisen ausgezeichnetes Datenteam leistet.
Letztlich beißt sich die Katze hier in den Schwanz: Einerseits ist die Ausbildungslage verbesserungswürdig. Doch ist die Nachfrage nach ausgebildeten Datenjournalisten niedrig und damit entstehen auch keine entsprechenden Angebote. Andersherum findet mangels entsprechend ausgebildeten Personals in Redaktionen allein durch Neueinstellungen kein alltäglicher Einsatz von Datenjournalismus statt. Der doch hohe technologische Charakter des Genres überfordert zudem so manche Entscheider in den Chefredaktionen und Verlagen. >
Findungsphase
Dennoch weist einiges darauf hin, dass die Zahl der Datenjournalisten langsam, aber stetig größer werden wird. So ist von Bemühungen bei weiteren Anstalten des öffentlich-rechtlichen Rundfunks zu hören, dem Thema mehr Raum zu geben. Auch in anderen Medienhäusern wird über Datenteams nachgedacht, beispielsweise bei der tageszeitung in Berlin. Auf deren Website erscheinen seit Jahren immer wieder Datenstücke, doch nur in unregelmäßigen Abständen. Das soll sich bald ändern. Warum, erklärt Christian Jakob, tätig im Recherche-Ressort der taz, so: „Bei aufwendigen Datenprojekten mit maßgeschneiderter Programmierung von externen Dienstleistern haben wir gemerkt: Das ist teuer und enorm zeit- und abstimmungsaufwändig”. In Zukunft solle es möglich sein, auch koordiniert mit der Print-Infografikabteilung, online zügig eine Datenvisualisierung zu bringen – ohne zu viele Ressourcen zu binden. Dafür wolle sich die taz Kompetenzen im Haus aufbauen. Wie genau das geschehen soll, sei noch nicht klar. Man befände sich noch in der Findungsphase, so Jakob.
Diese Phase ist beim Bayerischen Rundfunk seit geraumer Zeit vorbei. Die Leiterin von BR Data, Ulrike Köppen, erinnert sich: „Wir durften uns selbst zum Datenteam machen. Und je größer das Datenthema war, um so mehr Unterstützung haben wir erfahren”. Hervorgegangen ist BR Data Ende 2015 aus dem vor etwa fünf Jahren gestarteten „Formatentwicklungsteam”, das an die Online-Redaktion angedockt war. Seitdem hat das siebenköpfige Team eine eindrucksvolle Bandbreite an Themen in Zusammenarbeit mit anderen Redaktionen des BR bearbeitet: Seien es Rüstungsexporte, die Social Media-Welt der Pegida-Anhänger, die Auswirkungen des Klimawandels auf die Wintersportgebiete über Stücke zum Milchpreis und Entwicklungshilfe für Syrien bis hin zum Steuerparadies Madeira. Allerdings regt Köppen ein Thema auf, dass sich in den letzten sieben Jahren nicht wirklich geändert habe: Behörden mauerten bei der Herausgabe von Daten; auch Klagen nützten wenig, so Köppen. Weil die sich über Jahre hinwegzögen. „Es ist bitter, wie viele Recherchen daran scheitern”, sagt sie.
Es ist tatsächlich ernüchternd, wie trotz aller wohlfeilen Rhetorik seitens der Politik zu „Open Data” und „Open Government” der Zugang zu Behördenwissen versperrt bleibt. Zwar gibt es mittlerweile diverse Open Data-Portale in Bund und Ländern, die auch manchen Datenschatz bieten. Doch viele der dort verzeichneten Datensätze fallen in die Kategorie „Schnarchdaten”. Viele wirklich wertvolle Daten, obwohl finanziert vom Steuerzahler, bleiben verschlossen. Etwa das Handelsregister, das in anderen europäischen Ländern offen zugänglich vorliegt. Wären solche Datenbanken Open Data, würde eine Wirtschaftsberichterstattung auf neuem Niveau machbar. Kein Wunder, dass Teile der Wirtschaftslobby dies zu verhindern suchen. Mit Erfolg, wie das jüngst beschlossene Transparenzregister des Finanzministerium zeigt. Es soll über mögliche Hintermänner von Wirtschaftsunternehmen Auskunft geben können, macht das in seiner zahnlosen Umsetzung aber eben nicht möglich. So könnte man es auch als Bestandteil von Datenjournalismus verstehen, für Informationsfreiheit zu streiten. Insgesamt wäre es hier wünschenswert, wenn Verlage und Redaktionen deutlicher Position beziehen würden und Druck erzeugt.
Fundierte Debatten
Bleibt zum Schluss ein Blick darauf, wohin es mit dem Datenjournalismus gehen kann. Wie gezeigt, hat sich das Genre etabliert. Es gibt mittlerweile eine Bandbreite an kostenfreien und günstigen Werkzeugen, die es deutlich einfacher machen, ansehnliche Erkenntnisse aus Datenmengen herauszuschälen, ohne dass dafür Programmierkenntnisse nötig sind. Aber auch den Softwareentwicklern stehen dank der Open Source-Kultur speziell auf Datenarbeit zugeschnitten Lösungen zur Verfügung, von denen man vor sieben Jahren nur träumen konnte. Insofern steht eigentlich wenig im Weg, sich den noch unbestellten Feldern möglicher datenjournalistischer Themen zu widmen, beispielsweise gesellschaftlichen Großthemen, was bisher nur in Ausnahmefällen geschah. So wäre es zu wünschen, dass sich mehr der Wirtschafts- und Finanzpolitik zugewandt würde: Denn welche Methode wäre besser geeignet, diese komplexe Thematik jenseits der ideologischen geprägten Herumdeuteleien herunter zu brechen und verständlich aufzubereiten? Jenseits der Wiedergabe von Aktienkursen ist hier noch deutlich Luft nach oben. Und liegt es nicht auf der Hand, die vielen herumschwirrenden Zahlen über die Zukunft der Rente auf Faktenbasis zu überprüfen? Per Datenjournalismus ließen sich verschiedene Szenarien durchspielen, etwa zum Modell der Bürgerversicherung. Oder es ließen sich Ansätze für ein „Bedingungsloses Grundeinkommen” anschaulich durchrechnen, um fundierte Debatten zu ermöglichen.
In der noch längst nicht beendeten Digitalisierung der Gesellschaft in all ihren Facetten gibt es kaum ein Thema, in dem keine Daten entstehen oder sich messen lassen. Das Reservoir für den Datenjournalismus wird also immer größer und der ordnende Blick von Journalist_innen dort immer nötiger. Sollte es so sein, dass eine weitere Welle der Automatisierung von Arbeit, aber auch von staatlichen Aufgaben wie Grenzkontrolle, Gesundheitsversorgung oder Steuerwesen, vermehrt von Softwarealgorithmen gesteuert werden, muss hier der Journalismus seiner Wächterrolle entsprechen. Der Datenjournalismus ist es, der dafür das notwendige Handwerkszeug mitbringt.
Links:
https://mmm.verdi.de/beruf/spannende-recherche-im-netz-3765
http://johnburnmurdoch.github.io/slides/data-journalism-manifesto/
https://www.nytimes.com/by/gregor-aisch
http://www.hans-bredow-institut.de/de/webfm_send/1140
http://www.br.de/extra/br-data/br-data-100.html
Über den Autor
Lorenz Matzat ist Journalist und Softwareunternehmer in Berlin. Er schreibt seit 2011 auf datenjournalist.de über data-driven-journalism und ist Autor des 2016 erschienenen knappen Einführungsbands „Datenjournalismus – Methode einer digitalen Welt”, aus dem im UVK-Verlag. Matzat ist Mitgründer der Initiative AlgorithmWatch, die sich gesellschaftlich relevanten automatisierten Entscheidungsprozessen durch Software widmet.