Datenprofis gefragt – Googeln kann jeder

Foto: Pixabay

Der Zusammenarbeit von Wissenschafts- und Datenjournalist_innen mit Wissenschaftler_innen widmete sich die Konferenz SciCAR (Science meets  computer assisted reporting) an der TU Dortmund in dieser Woche. Es wurde der Frage nachgegangen, wie mit Hilfe von verlässlichen wissenschaftlichen Daten journalistisch relevante Beiträge entstehen können. Als Austauschpunkt für die verschiedenen Gruppen soll es SciCAR auch in den kommenden zwei Jahren geben.  

Die technische Entwicklung verändert den Journalismus. Anzeigenumsätze sind eingebrochen, tragen unter anderem dazu bei, die Finanzierungsmöglichkeiten von Journalismus zu verringern – neue Billigkonkurrenz buhlt um die Aufmerksamkeit des Publikums. „Wenn der Journalismus nicht mehr genug Ressourcen zur Verfügung hat, müssen wir neue Strukturen schaffen, die es ihm wieder erlauben, seine gesellschaftliche Funktion zu erfüllen”, sagte Professor Holger Wormer, zur Eröffnung der Konferenz SciCAR in Dortmund. „Googeln kann jeder – für fundierte Informationen hingegen braucht es Profis“, betonte Wormer, der an der Technischen Universität Dortmund Wissenschaftsjournalismus lehrt. Sein Appell: Die Datenflut, die viele Leser_innen überfordert, sollte von Journalist_innen genutzt werden, um neue Geschichten zu recherchieren und dem Publikum bisher unbekannte Zusammenhänge zu vermitteln.

Zwei Jahre Recherche

Um die Potenziale der Zusammenarbeit von Journalist_innen und Wissenschaftler_innen zu zeigen, hatten die Organisator_innen unter anderem den erfahrenen Investigativjournalisten Sam Roe aus Chicago eingeladen. Er hatte mit einem Datenanalysten und mit Medizinern zweier Universitäten gemeinsam geprüft, ob Apotheken Patient_innen Medikamente verkaufen, die kombiniert tödliche Auswirkungen haben können. Und tatsächlich: Viele Apotheken verkaufen einen gefährlichen Medikamenten-Mix. Die Veröffentlichung der Recherche-Ergebnisse in der Chicago Tribune bewirkte, dass die Sicherheitsvorkehrungen bei der Medikamentenausgabe überarbeitet werden sollen.

„Solche Projekte sind zeitraubend, teuer und riskant“, warnte Roe. Seine Recherche zu den Medikamenten-Nebenwirkungen dauerte ganze zwei Jahre. Die unterschiedlichen institutionellen Hintergründe stellten beide Seiten auf die Probe. Während Journalisten oft tagesaktuell arbeiteten, seien es Wissenschaftler gewohnt, monatelang auf die Zusage von Fördergeldern oder die Bewertung der Ethik-Kommissionen zu warten. Dafür haben Wissenschaftler Einblicke, die Journalisten oft verborgen bleiben: So können sie auf statistische Rohdaten zugreifen, die der Öffentlichkeit und damit auch Journalisten aus Datenschutzgründen vorenthalten werden.

Grundlagenarbeit ist nötig

Um solche Zusammenarbeit zu initiieren, hatte die Volkswagenstiftung ein Förderprogramm aufgelegt, das gemeinsame Arbeiten von Wissenschaftlern und Journalisten förderte. Ein Team aus Mitarbeiter_innen der Berliner Morgenpost und der HafenCity Universität Hamburg schuf dabei das Programm CoGran, das es ermöglicht, Geodaten aus unterschiedlichen Quellen zu kombinieren, zum Beispiel wenn ein Datensatz die Verteilung in Postleitzahlen-Gebieten beinhaltet und ein anderer die nicht identischen Wahlbezirke zur Grundlage hat.

Solche Hilfsmittel sind notwendig, um die Qualität des Datenjournalismus zu verbessern. So stellte das Hans-Bredow-Institut in einer Studie fest, dass immer mehr etablierte Medien auf datenjournalistische Projekte setzen, dass es aber noch viel Verbesserungspotenzial gebe. So nutzten eine Vielzahl der untersuchten Arbeiten lediglich eine Quelle, amtliche Quellen werden oftmals nicht hinterfragt. „Hier wird der Daten-PR Tür und Tor geöffnet”, erklärte Studien-Coautor Julius Reimer in Dortmund. Die Befürchtung: Behörden und Unternehmen könnten Journalist_innen nur selektive Daten zur Verfügung stellen, die nur die erwünschten Schlussfolgerungen zulassen.

Algorithmen nutzen und überwachen

Datenjournalist Marco Maas appellierte unterdessen, die Daten, die zum Beispiel beim Smartphone-Gebrauch anfallen, nicht nur für Recherchen zu nutzen, sondern auch in die journalistischen Medien selbst einzubauen. So könnte man dem Leser aufgrund seiner Bewegungsdaten, Tagesgewohnheiten, seiner Interessen immer zielgenau Nachrichten zukommen lassen – beispielsweise eine kurze Nachrichtensendung zum Zähneputzen, längere Lesestücke hingegen am Abend. In diesem Sinne würden Google, Facebook, Apple, alle an ihren Plattformen arbeiten, sagte Maas. „Entweder verlassen wir uns auf die oder wir lernen selbst die Daten zu nutzen.“

Die Daten und Algorithmen der großen Konzerne zu analysieren, hat sich AlgorithmWatch zur Aufgabe gemacht. Auch hier arbeiten Forscher_innen und Journalist_innen zusammen. „Die Wächterfunktion des Journalismus muss in diesem Bereich wirksam werden“, forderte Mitgründer Lorenz Matzat in Dortmund. Die technische Entwicklung mache die Nachprüfbarkeit von Informationen immer schwieriger, teilweise sogar unmöglich. Deshalb setze AlgorithmWatch unter anderem auf neue Formen der Datenerhebung, um grundlegende Zusammenhänge der digitalen Öffentlichkeit zu überprüfen. So gab die Initiative Browser-Plugins heraus, über die Freiwillige ihre Suchergebnisse zur weiteren Analyse zu Verfügung stellen konnten. Ergebnis: Bisher hat die Personalisierung bei Google einen eher geringen Einfluss darauf, welche Ergebnisse bestimmten Nutzer_innen angezeigt werden. Als nächstes will die Initiative untersuchen, welche Nachrichten über Google besonders stark verbreitet werden.

 

 

 

 

 

nach oben

weiterlesen

DuMont-Redaktionen: Keine Neueingestellten mehr mit Tarif?

Das bewährte Rezept heißt Ausgliederungen. Bei M. DuMont Schauberg in Köln, einem der ältesten deutschen Verlagshäuser, das sich aktuell als drittgrößten Zeitungsverlag sieht, hat man die Strategie der Tarifflucht in den vergangenen Jahren vervollkommnet. Nachdem zunächst die Verlagsbereiche konzernweit nahezu komplett verhackstückt wurden, stehen weiter die Redaktionen im Fokus. Doch nicht nur in der Rheinischen Redaktionsgemeinschaft regt sich Widerstand. Eine Bestandsaufnahme.
mehr »

Buchtipp: „Datenjournalismus ist gekommen um zu bleiben“

„2016 wird das vorerst beste Jahr für den Datenjournalismus in Deutschland werden.“ Davon zeigte sich Lorenz Matzat auf „datenjournalist.de“ überzeugt. 2016 zumindest hat er, der seit 2009 als Journalist, Blogger und Softwareunternehmer mit Open Data und Datenjournalismus arbeitet, das Jahr genutzt, um in der UVK-Reihe „Praktischer Journalismus“ den Band 101 zum „Datenjournalismus – Methode einer digitalen Welt“ zu verfassen. Das Interesse an dieser journalistischen Arbeitsweise teilen die Journalist_innen in ver.di, deshalb ist Datenjournalismus Thema des 30. Journalistentags am 21. Januar 2017 im Berliner ver.di-Haus: „Hashtag, Hightech, Hackmac“.
mehr »

Berliner Printmarkt: Loblied oder Abgesang

Keine deutsche Stadt verfügt über eine so große Zeitungsvielfalt wie Berlin. Doch diese Fülle täuscht. Die Auflagen befinden sich überwiegend in freiem Fall, die Werbeumsätze brechen weg, und ein valides digitales Geschäftsmodell ist nicht in Sicht. Im Rahmen des „Berliner Rathaus-Dialogs“ diskutierten vier Zeitungsmacher am 13. Juni über „Die Zukunft des Berliner Zeitungsmarktes“.
mehr »

Vom Entgleiten der „Unruhefunktion“

Landespressekonferenz Hessen vor wenigen Monaten. Der Vorsitzende gibt ein Statement ab, das nachdenklich macht: Immer weniger Journalisten kämen zu politischen Terminen und Pressekonferenzen des Landesparlaments. Manchmal säßen da nur zwei Medienvertreter, wenn ein Ministerium oder eine Landes-NGO einlädt. Einst wichtige Regionalzeitungen, TV- und Radiosender schickten keine Korrespondenten mehr. – Wer also übernähme denn nun das Wächteramt gegenüber der Landespolitik?
mehr »