Spannende Recherche im Netz

Titelthema: Datenjournalismus

In der angelsächsischen Welt geben Regierungen lang gehütete Datenschätze frei. Journalisten und Webentwickler sehen in den Daten ein großes Potenzial für Recherchen und neue Dienste. In Deutschland bremsen eingeschränkte Informationsfreiheiten auch die Datenrecherche aus.

In der britischen Tageszeitung Guardian herrscht dieser Tage Aufbruchstimmung. Jahrelang hatte die britische Tageszeitung eine Kampagne unter dem Motto „Befreit unsere Daten“ betrieben. Das Argument lautete: „Aus unseren Steuern wird das Sammeln öffentlicher Daten bezahlt – doch wir müssen den Zugang zu diesen Daten bezahlen. Ein freier Zugang stimuliert Innovation.“ Journalisten können die Datensätze auf der Suche nach interessanten Mustern, Unerwartetem oder Anomalien analysieren und so neue Geschichten finden. Webentwickler können aus den Staatsdaten bürgernahe Anwendungen stricken.
Ende Januar war es dann so weit: Die britische Regierung veröffentlichte auf der neuen Website data.gov.uk (http://data.gov.uk) über 2.500 Datenbestände. Und zwar nicht als PDF-Datei oder in einer Tabelle auf einer Website, sondern in einer Form, die eine einfache maschinelle Weiterverarbeitung ermöglicht. Aus Sicht von Datenschützern gibt es übrigens keine Bedenken, da sich die Zahlen nicht auf einzelne Personen beziehen lassen. Der Guardian feierte das Ereignis auf seine Weise: Er weihte ein neues Angebot namens „World Government Data“ auf seiner umfangreichen Website ein (http://www.guardian.co.uk/world-government-data). Es bietet einen Recherchezugriff nicht nur auf britische Regierungsdaten, sondern auch auf die Daten der US-amerikanischen, australischen und neuseeländischen Regierungen, die alle in den letzten Monaten ihre Daten frei gegeben hatten.

Großbritannien als weltweiter Vorreiter

Mit der neuen Open-Data-Politik geht ein gewaltiger Ruck durch die angelsächsische Welt – und der Ehrgeiz ist ungebrochen: Die Briten veröffentlichten gleich dreimal so viele Datenbestände wie die Amerikaner. Die galten bisher unter der Ägide von Präsident Barack Obama als weltweit führend in Sachen „offene Regierungsdaten“. Ein Regierungsversprechen von Obama war es, die staatlichen Datenbanken zu öffnen und so für mehr Transparenz im Land zu sorgen. Die Erfolgsformel für Clay Johnson, dem Chef des amerikanischen Sunlight Labs, das Anwendungen aus den Daten strickt, ist einfach: „Open Source und offene Daten ergeben eine bessere Regierung.“
Tatsächlich löste die Veröffentlichung der amerikanischen Daten auf der Website data.gov (http://data.gov) unter Web-Entwicklern einen regelrechten Kreativitätsschub aus. Bereits im ersten Jahr veröffentlichten amerikanische Behörden über 1.000 Datenbestände zu Wetteraufzeichnungen, Energie und Verbrauch sowie Umwelt, aber auch Daten der Weltraumbehörde NASA. Bürger können jetzt beispielsweise sofort feststellen, welche Abfälle in ihrem Umkreis in Gewässer eingeleitet oder deponiert wurden.
In Großbritannien war es neben dem Guardian kein Geringerer als World-Wide-Web-Erfinder Sir Tim Berners-Lee, der sich für „open government“, für eine „offene Regierung“ eingesetzt hatte. Seine Idee ist es, das Internet noch einmal zu revolutionieren. Bisher stellt das Web vor allem Inhalte bereit. Doch es wird noch nicht wirklich als das genutzt, was es eigentlich ist: ein gigantischer Computer, der die gespeicherten Daten auch verarbeiten kann. Die Politiker konnte Berners-Lee mit folgendem Argument überzeugen: „Regierungsdaten sollten eine öffentliche Ressource sein. Indem sie publiziert werden, können wir neue Ideen für öffentliche Dienstleistungen entwickeln. Wir können der Verwaltung und der Gesellschaft helfen, besser zu arbeiten. Und wir ermöglichen talentierten Unternehmern und Ingenieuren die Entwicklung neuer Geschäftsmodelle und Dienstleistungen.“
Die britischen Zahlen kommen aus den Bereichen Finanzen, Gesundheit, Bildung, Verkehr und Umwelt. Die Briten können etwa mit „Where does my money go?“ überprüfen, wie die Regierung die Steuern ausgibt (http://www.wheredoesmymoneygo.org/prototype). Der Regierungshaushalt bleibt so nicht länger die Domäne von Experten. Es befinden sich unter der Adresse data.gov.uk aber auch brisante Daten wie etwa zu ungeklärten Todesfällen unter Soldaten. Oder Daten aus dem Justizbereich, die Verwarnungen und Verhaftungen nach ethnischer Zugehörigkeit aufschlüsseln oder Straftaten von Pflege- und Waisenkindern auflisten.

Mobile Apps

Bereits über 2.400 Programmierer registrierten sich auf der britischen Website. Die Daten sind Grundlage für neue Anwendungen, die Nutzer nicht nur über den Internetrechner zu Hause, sondern auch über ihr Smartphone abrufen können. Bürger können auch über eine Smartphone-Anwendung nachsehen, wo sich der nächste Zahnarzt oder die am nächsten gelegene Apotheke befindet. Für Hauskäufer gibt es im Immobilien-verrückten Großbritannien bereits mehrere Anwendungen: Sie können die Entwicklung von Immobilienpreisen der letzten Jahre für die Gegend ihrer Wahl nachvollziehen.
Aber die Zahlen ermöglichen auch fragwürdige Anwendungen. So veröffentlichte der Entwickler Jeff Gilfelt Ende Februar eine Anwendung für Smartphones namens „ASBOrometer“, die anzeigt, wie „asozial“ die Nachbarschaft ist (http://www.asborometer.com). Die App (Application) für das iPhone und das Android-Handy verwendet verschiedene Datenbestände von data.gov.uk. Zum einen die Ergebnisse einer Umfrage, die Bürgern nach dem Grad des asozialen Verhaltens in ihrer Umgebung befragt hatte. Zum anderen Datensätze zu einstweiligen Verfügungen und Räumungsbefehlen, über baufällige und leer stehende Häuser sowie Zahlen über vom Jugendamt betreute Familien.
Die App gehörte bereits nach wenigen Tagen mit über 100.000 Downloads zu den erfolgreichsten kostenlosen Mobilfunkanwendungen in Großbritannien. Ein Nutzer zeigte sich auf der iPhone-Website begeistert und schrieb: „Ich kann vor einem Umzug bestimmte Gegenden überprüfen. Für eine erste Version ist das hervorragend. Keine leer stehenden Häuser in meiner Gegend. Super.“ App-Entwickler Gilfelt denkt im Moment über weitere Entwicklungen nach, etwa mit Hilfe der Daten des Ordnance Survey, eine Behörde, die für die Landvermessung zuständig ist. Diese sollen im Laufe dieses Jahres frei gegeben werden. Der Journalistenausbilder Paul Bradshaw erkennt in solchen Anwendungen „offensichtliche Folgen für den Hyperlocal- und den Lokaljournalismus.
Andere neue Internetdienste dürften weniger umstritten, aber ebenso wertvoll für den Lokaljournalismus sein. So teilt der kostenlose Dienst „Planning Alerts“ Bürgern per E-Mail mit, sobald es irgendein Planungsvorhaben in der unmittelbaren Nachbarschaft gibt. Über die Anwendung „Fill That Hole“ können Bürger Schlaglöcher und andere Straßenhindernisse melden. Die sind offenbar in Großbritannien ein großes Ärgernis: Durchschnittlich alle 110 Meter lauert dort ein Schlagloch auf ahnungslose Auto- und Radfahrer. Die Meldungen sollen die lokalen Verwaltungen dazu bringen, schneller auf Straßenschäden zu reagieren als bisher.

Die Deutschland-Schnittstelle

Bislang gibt es in Deutschland nur sehr vorsichtige Ansätze in diese Richtung. Der erst im Herbst gegründete Berliner Verein „OpenData Network“ (http://opendata-network.org/) wird im April in Berlin ein Treffen organisieren, auf dem Entwickler erste, eher politisch orientierte Apps entwickeln sollen. Dann wird sich herausstellen, ob sich mit den verfügbaren Daten bereits etwas auf die Beine stellen lässt. Im Umfeld des Vereins findet sich auch die „Deutschland API“. Gemeint ist damit eine Schnittstelle, über die Daten strukturiert und maschinenlesbar zur Verfügung gestellt werden können. Diese lassen sich darüber nach ausgesuchten Parametern filtern und durchsuchen. Die Organisatoren der „Deutschland API“ steckten auch hinter dem Projekt wahl.de (http://www.wahl.de/), das zur Bundestagswahl Kandidaten, Mandats- und Funktionsträger nach verschiedenen Aspekten auflistete und Ranglisten über das Social-Web-Engagement auf twitter oder Facebook erstellte. Auf dieser Basis entstand unter anderem eine iPhone-App sowie das Angebot „Kandidaten-Check“ von Bild, das die Social-Web-Aktivitäten der Politiker nun auf einer Landkarte anzeigt (http://kandidaten-check.bild.de/).
Eines der ersten deutschsprachigen Beispiele für eine journalistische Arbeit, die Daten im Internet veröffentlicht und für die Berichterstattung genutzt hat, stammt von Sebastian Heiser. Der taz-Redakteur ist 2009 kurz vor der Anti-Überwachungs-Demonstration „Freiheit statt Angst“ in Berlin die Demoroute abgelaufen und zählte dabei 116 sichtbare Überwachungskameras. Die Standorte trug Heiser auf Google Maps ein. Im Lokalteil Berlin veröffentlichte er eine ähnliche Karte mit den Kamerastandpunkten. (http://recherche-info.de/blog/wp-content/src/2009/09/116-print.jpg) Fotos von allen Kameras veröffentlichte Heiser auf der Fotoplattform Panoramio im Internet. Seinem Bericht darüber folgte einige Monate später ein weiterer, der sich mit den datenschutzrechtlichen Aspekten von Videoüberwachung seitens privater Stellen im öffentlichen Raum befasste.

Datenbank-Journalismus

Ebenfalls auf eine Kartengrafik setzt die „Deutschlandkarte“ von Zeit online (http://www.zeit.de/themen/serie/index?q=deutschlandkarte). Die jüngste Karte zeigt, dass viele Staatsanwältinnen weiblich sind; in München gibt es sogar bereits mehr Staatsanwältinnen als Staatsanwälte (http://zeus.zeit.de/lebensart/2010-02/d-karte-staatsanwaeltinnen/d-karte-staatsanwaeltinnen-thickbox.jpg). Die Redakteure waren einer Leseranregung nachgegangen. Ein Ehepaar hatte geschrieben: „Uns fällt auf, dass in den TV-Krimis sehr oft Staatsanwältinnen auftreten. Das gibt Anlass zu der Frage, ob die bundesdeutsche Wirklichkeit so weit in Richtung Geschlechterproporz fortgeschritten ist. Wir haben erhebliche Zweifel.“ Der Zweifel ist jetzt beseitigt. Die Karten sind jedoch herkömmliche Infografiken, die keine weiteren Abfragen seitens der Leser zulassen.
2007 gründete die Nachrichtenagentur dpa eine Redaktion namens RegioData, die sich auf datenbasierte Berichterstattung konzentriert. Sie ist in Deutschland die erste Redaktion, die sich ausschließlich dem Datenbank-Journalismus oder auch dem so genannten „Computer Assisted Reporting“ (CAR) widmet. Redakteure ermitteln und erfassen Daten von Ministerien, Ämtern und Behörden, Wissenschafts- und Forschungsreinrichtungen, Verbänden, Vereinen und Organisationen sowie kommerziellen Datenanbietern. Wenn ihnen Behörden die Herausgabe von Daten verweigern versuchen sie diese mit Hilfe des Informationsfreiheitsgesetzes zu erstreiten. Mit verschiedenen Datamining-Techniken werten sie die Daten aus und liefern dann Themenpakete über Arbeitsmarkt- und Bevölkerungsentwicklungen, Gesundheits- und Sozialfragen, bis hin zu Technologie und Wissenschaft aus.
Die Redaktionen erhalten zu den Themen nicht nur einen Text, Grafiken und Diagramme, sondern auch die aufbereiteten Daten in einer Excel-Tabelle. Lokalzeitungen werden gezielt mit Grafiken beliefert, die zu ihrer Region passen. Dabei werden je nach Verfügbarkeit die Daten für Landkreise, Raumordnungsregionen, Arbeitsamtsbezirke oder Postleitzahlbezirke ausgewertet. Die Begleittexte fassen die jeweilige Auswertung zusammen und benennen herausragende Ergebnisse. Das mündet in Schlagzeilen wie: „Beim Antrag auf Elterngeld sind Berlins Väter Spitze, dicht gefolgt von den Bayern.“ Es gibt jedoch auch Antworten auf Fragen wie diese: „Wer leitet wo die meisten Schadstoffe in die Umwelt und was bedeutet das für die Bewohner der Regionen?“
Seit Anfang 2010 werden Themenpakete mit Grafiken und Daten nicht nur an Abonnenten, sondern auch über das Portal der dpa-Tochter Picture Alliance (www.picture-alliance.de) im Einzelabruf angeboten. „Datenauswertungen wie wir sie machen, gehören in Deutschland noch nicht zum Handwerkszeug der Journalisten“, sagt Sebastian Mondial, Redakteur im RegioData-Team. In den USA sei das anders, dort sei „Computer Assisted Reporting“ bereits seit Jahrzehnten eine verbreitete Recherchemethode.
Die dpa hat beispielsweise mit Hilfe eines Crawler-Programms die Liste der im Deutschen Bundestag zugelassenen Lobby-Gruppen http://www.bundestag.de/dokumente/parlamentsarchiv/sachgeb/lobbyliste/index.html) ausgelesen und ausgewertet. Diese Liste verglichen die Mitarbeiter von RegioData mit den Daten der aktiven Bundestagsabgeordneten, wie sie auf den Webseiten des Bundestages verfügbar waren. Dabei stellte sich heraus, dass fünf Abgeordnete ihre Nebentätigkeiten in Vereinen der Rüstungslobby nicht wie vorgeschrieben im Bundestagsprofil angegeben hatten.
Das Paradebeispiel für Datenbankjournalismus in Europa sind die EU-Agrarsubventionen, deren Daten 2009 nach langem politischem Ringen frei gegeben wurden. Hier hatte dpa-RegioData innerhalb eines Tages, so Sebastian Mondial, die Daten für Deutschland aus dem Web ausgelesen und aufbereitet. Dadurch konnte nicht nur aufgezeigt werden, dass die größten Subventionsempfänger mitnichten Landwirte, sondern große Konzerne wie die Südzucker AG sind. Auch die regionale Verteilung der Gelder lieferte interessante Aspekte für die Berichterstattung in den Tageszeitungen und anderen regionalen Medien. Einziger Wehrmutstropfen waren die fehlenden Daten aus Bayern, die erst viel später freigegeben wurden. Wenige Tage später boten Nils Mulvad, Jack Thurston und Brigitte Alfter auf der Website Farmsubsidy.org (http://www.farmsubsidy.org) eine Aufbereitung der Daten für die gesamte EU an.
Zu den jüngeren Beispielen eines investigativen Datenbankjournalismus zählt auch die Recherche von Veronika Hackenbroch, die für den Spiegel mehrere medizinische Datenbanken untersuchte. Dabei fand sie heraus, dass der Einbau von Hüftprothesen deshalb häufiger vorgenommen wird, weil dies ein neues Abrechnungssystem für die Kliniken lukrativer gemacht hat (http://www.spiegel.de/spiegel/print/d-67596402.html).

Eingeschränkte Informationsfreiheiten

Deutsche Journalisten können die Entwicklung in der angelsächsischen Welt nur mit Wehmut betrachten. Basis sind nämlich verschiedene Informationszugangsrechte, die dort ganz andere Dimensionen haben als in Deutschland. Hier wurde das Informationsfreiheitsgesetz des Bundes erst 2006 eingeführt und stellte damit eine jahrhundertelange Behördenpraxis auf den Kopf: Seither muss die Verwaltung begründen, warum sie Informationen dem Bürger vorenthält, da dieser grundsätzlich über ein Akteneinsichtsrecht verfügt. Vorher galt grundsätzlich das Amtsgeheimnis. Journalisten recherchieren aber erst sehr vereinzelt mit dem Gesetz.
Die Behörden machen es den Journalisten denn auch nicht leicht, das neue Recht anzuwenden, wie etwa Stern-Reporter Hans-Martin Tillack erleben durfte. Den Terminkalender des früheren Kanzleramtschefs Steinmeier durfte er nicht einsehen, weil darin „keine amtlichen Informationen“ im Sinne des Gesetzes seien. Die Anschaffungspreise der Dienstwagen des Kanzleramtes durfte er nicht erfahren, weil damit „Betriebs- und Geschäftsgeheimnis der Zulieferer“ betroffen seien. Die Flugdaten CIA-verdächtiger Jets blieben ebenfalls Verschlusssache, „weil die Sorge besteht, dass eine nicht sach- und fachgerechte Interpretation der Daten zu einer Beeinträchtigung der auswärtigen Beziehungen führen kann“. Die CDU-Ministerin Ursula von der Leyen verweigerte die Einsicht in die Fahrtenbücher ihrer Dienstwagen mit der Begründung, sie enthielten eine „Vielzahl von personenbezogenen Daten“.
Im Blog recherche-info.de berichten verschiedene Journalisten immer wieder über Erfahrungen mit dem Informationsfreiheitsgesetz. taz-Redakteur Sebastian Heiser schreibt darin, dass die Informationsgesetze im Vergleich zum presserechtlichen Auskunftsanspruch nach §4 der Landespressegesetze vergleichsweise schwach seien. So sei der Auskunftsanspruch nach dem Informationsfreiheitsgesetz „durch eine Reihe von Generalklauseln beschränkt, die recht großzügig formuliert sind“. Die Folge: „Sobald eine dieser Klauseln greift, ist eine Auskunft nicht mehr möglich. Eine Abwägung findet nicht statt – weil die Informationsfreiheit keine Ausprägung eines Grundrechts ist, sondern ein quasi gnadenhalber vom Gesetzgeber gewährtes Recht, das nach Belieben eingegrenzt oder ausgeweitet werden kann.“
Die branchenumwälzende Open-Data-Entwicklung in den USA und Großbritannien scheint in Deutschland vielleicht auch aufgrund des recht restriktiven Informationsfreiheitsgesetzes noch kein Thema zu sein: Eine jetzt anstehende Reform des Informationsfreiheitsgesetzes ignoriert den Bereich „Open Data“ bislang. Auch der Praxisalltag ist wenig ermutigend: So wird die Informationsfreigabe nach den Informationsfreiheitsgesetzen noch immer in der Regel in Papierform abgewickelt. Der Bundesbeauftragte für Datenschutz und Informationsfreiheit, Peter Schaar, sagt: „In Deutschland muss immer geprüft werden, ob die Daten aufgrund eines allgemeinen Grundsatzes freigegeben wurden, also weder Betriebs- und Geschäftsgeheimnisse noch personenbezogene Daten einbezogen sind.“
Eine weitere Verwendung wie etwa die Veröffentlichung im Internet wird schwierig bei Abwägungsgründen, wo zwischen dem Informationsanspruch des Betroffenen und dem Schutzinteresse der Behörden entschieden wird und die Informationen dann mitunter nur teilweise, und zwar gegenüber einem bestimmten Antragsteller, frei gegeben werden. Schaar möchte zwar, dass elektronische Dokumente sehr viel häufiger frei gegeben werden und dass der Betroffene selbst direkten Zugang zu seinen Daten erhält. Ansonsten sollten nicht personenbezogene Daten „freizügig“ weitergegeben werden. Immerhin greift der Antrag zur Einrichtung einer Internet-Bundestagsenquête auch das Thema „Open Data“ auf. So sollen „Strategien für einen freien Zugang zu staatlichen Informationen“ erarbeitet werden. Eine Umsetzung kann aber noch Jahre auf sich warten lassen.
Disclaimer: Danke an Sebastian Mondial, Albrecht Ude, Ulrike Langer, Marcus Lindemann und Kirstin Marquardt für wertvolle Hinweise.


 

Links / Stories


How-To-Stories


Websites


Tipps

nach oben

weiterlesen

Streitbar und konfliktfähig

Die kämpferisch-kollegiale Diskussionskultur gefalle ihm. Er käme gern zu den Medienschaffenden, Künstlern und Industriegewerkschaftern in ver.di, versicherte Frank Bsirske den 90 Delegierten. Die Rede des ver.di-Chefs bildeten ein Highlight, doch nur einen Punkt auf der umfangreichen Agenda der 4. Bundesfachbereichskonferenz Medien, Kunst und Industrie am 25. und 26. April 2015 in Berlin.
mehr »

Fakt oder fake? Das große Checken

Die gute Nachricht: Die befürchteten propagandistischen Angriffe durch Trollfabriken, Social Bots oder Lügengeschichten blieben im Bundestagswahlkampf bisher aus. Die zum Wahljahr verstärkt eingesetzten Faktenprüfer falsifizieren den üblichen Unsinn, der durchs Netz schwirrt, klopfen auch mal seriöse Standpunkte, darunter steile Politiker-Thesen, ab. Dabei ist die Zukunft der meisten deutschen Faktenprüfer nach der Wahl ungewiss. Sicher werden spezialisierte Verifizierungs-Tools Teil des redaktionellen Alltags.
mehr »

Datenprofis gefragt – Googeln kann jeder

Der Zusammenarbeit von Wissenschafts- und Datenjournalist_innen mit Wissenschaftler_innen widmete sich die Konferenz SciCAR (Science meets  computer assisted reporting) an der TU Dortmund in dieser Woche. Es wurde der Frage nachgegangen, wie mit Hilfe von verlässlichen wissenschaftlichen Daten journalistisch relevante Beiträge entstehen können. Als Austauschpunkt für die verschiedenen Gruppen soll es SciCAR auch in den kommenden zwei Jahren geben.  
mehr »

Schlag gegen das freie Wort

Ein kleiner Staat mit zweifelhaftem Mafia-Image strebt in die EU, doch hat er mit dem Schutz der Pressefreiheit nur wenig am Hut: In Montenegro mehren sich die Übergriffe gegen kritische Journalisten. Die Täter werden nie gefasst. Die verantwortlichen Politiker reagieren entweder gar nicht – oder beschränken sich auf folgenlose Lippenbekenntnisse der Solidarität.
mehr »