#krassmedial: Gute Daten, schlechte Daten

#krassmedial 2018: Entwickler und Journalist Sakander Zirai über Methoden des Data Minings
Foto: Matthias von Fintel

Nicht nur um Daten, sondern ganz generell um die journalistische Arbeit mit neuen Quellen ging es auf den 8. ver.di-Medientagen, die vom 22. bis 24. Juni bereits zum dritten Mal in Folge im ver.di-Bildungszentrum Clara Sahlberg am Berliner Wannsee stattfanden. So sind Daten und Informationen zwar seit jeher Grundlage der journalistischen Berichterstattung, doch schaffen die Digitalisierung und die einhergehende massenhafte Datenerfassung neue Möglichkeiten – aber auch Herausforderungen. Nach Antworten darauf wurde in der mittlerweile bewährten Mischung aus praxisorientierten Workshops und Vorträgen gesucht.

„Vor allem wollen wir natürlich auch erfahren, ob es Schätze gibt, die wir in unserer journalistischen Arbeit heben können, von denen wir aber noch nichts wissen“, begrüßte die dju-Bundesgeschäftsführerin und Leiterin des Bereichs Medien bei ver.di, Cornelia Haß, die in diesem Jahr zugleich auch durch die Tagung führte, das Publikum. Rund 40 Medienschaffende aus allen Bereichen waren für das Wochenende angereist, nicht nur um sich weiterzubilden, sondern auch um zu netzwerken – zum Beispiel beim kollektiven Mitzittern während der Partie der deutschen Nationalelf, die am Samstagabend gegen Schweden das Vorrundenaus zunächst abwenden konnte.

#krassmedial 2018: dju-Bundesgeschäftsführerin Cornelia Haß und Prof. Dr. Michael Strube während seines Einführungsvortrags
Foto: Matthias von Fintel

Mit Künstlicher Intelligenz gegen Fake News und Co.

Mit einem Blick über den medialen Tellerrand und in die Zukunft des Journalismus mit Daten eröffnete der Computerlinguist Prof.Dr. Michael Strube vom Heidelberger Institut für theoretische Studien (HITS) am Freitagabend die Tagung. Der begeisterte Zeitungsleser, der seit seiner Schulzeit die FAZ abonniert hat und seit 25 Jahren kein Windows mehr benutzt, warb für eine engere Zusammenarbeit von Journalismus und Wissenschaft. Denn die Computerlinguistik arbeite nicht nur daran, Medienschaffende in ihrer Arbeit durch das Bereitstellen bestimmter Tools zu unterstützen, sondern könne mit ihren Methoden den Journalismus auch analysieren. Dafür bedürfe es aber großer Datensätze aus der Medienpraxis, mit deren Hilfe dann Deep-Learning-Verfahren trainiert würden. Schon immer arbeite die Computerlinguistik vorrangig mit journalistischen Texten, die ihr von Verlagen, in Deutschland etwa der taz, zur Verfügung gestellt werden. Durch die Analyse dieser Daten sei es möglich, intelligente Algorithmen zu trainieren, die dann etwa bei der Optimierung von Artikeln oder auch beim Erkennen von Fake News helfen könnten. Möglich seien auch Methoden, um Kommentarspalten im Netz automatisch zu moderieren und damit gegen Hate Speech vorzugehen, sagte Strube, der zu diesem Thema auch Workshops an seinem Institut anbietet. Alles noch Zukunftsmusik? Im Moment ja, manche Tools, wie etwa eines zur automatischen Textanalyse unterschiedlichster Quellen im Netz, könnten aber schon in drei Jahren für die Medienpraxis bereitstehen, kündigte der Wissenschaftler an.

Datenjournalismus von Berlin bis Panama

#krassmedial 2018: Marie-Louise-Timcke von der Berliner Morgenpost sorgte für einen erfrischenden Start in den Konferenzsamstag
Foto: Matthias von Fintel

Für einen trotz Regenwetters sonnigen Start in den zweiten Konferenztag sorgte die Leiterin des Interaktiv-Teams bei der Berliner Morgenpost und Gründerin von Journocode, Marie-Louise Timcke. Die 25-Jährige, die eigentlich Molekularmedizinerin werden wollte, sich dann aber überlegte, dass sie viel lieber über die Wissenschaft redet als jeden Tag acht Stunden im Labor zu stehen, bot den anwesenden Medienschaffenden spannende Einblicke in die Arbeit ihres fünfköpfigen Teams, bei der weniger Datenanalysen als vielmehr die Visualisierungen unterschiedlichster Themen im Vordergrund stünden. So wie etwa bei der interaktiven 3D-Animation „Berlins neue Skyline“, in der die Leser_innen entdecken können, wie die Berliner Innenstadt seit 1990 gewachsen ist und wie sie in Zukunft aussehen soll. Gefragt nach der Finanzierung solch innovativer Projekte, bedauerte die junge Journalistin, dass diese immer mehr auf die Medienschaffenden selbst zurückfalle. So müssten sie und ihre Kollegen oft auch Firmenprojekte an Land ziehen oder wertvolle Zeit für die Integration von Werbeanzeigen in die Visualisierungen aufwenden. „Eigentlich müsste sich aber der Verlag darum kümmern, wie man damit Geld verdienen kann.“ Den Zuhörenden gibt sie noch mit auf den Weg: „Nur weil ein Ergebnis auf Daten beruht, ist es nicht Fakt.“ Es müsse immer mit klassisch journalistischer Recherche gegengecheckt werden, nicht zuletzt, weil auch die Daten selbst fehlerhaft sein können: „Dass Daten objektiv sind, stimmt nicht. Und das müssen wir dem Leser vermitteln.“

#krassmedial 2018: Dr. Bernhard Goodwin über die Herausforderungen im Umgang mit Daten aus wissenschaftlicher Perspektive
Foto: Matthias von Fintel

Dass das klassische journalistische Handwerk trotz der Datenflut in der Medienpraxis „stabil bleibt und stabil bleiben soll“, betonte auch Dr. Bernhard Goodwin vom Institut für Kommunikationswissenschaft und Medienforschung der Ludwig-Maximilians-Universität München, der die journalistische Arbeit mit Daten aus einer forschungstheoretischen Perspektive beleuchtete. Journalistische Entwicklungsfelder identifizierte er im Datenjournalismus, im Roboterjournalismus, in der publikumsdatenbasierten Redaktion sowie in der Personalisierung von Medienkonsum. Und welche Implikationen hat das für die Medienpraxis? Datenjournalismus, der wirtschaftlich nur für größere Unternehmen leistbar ist, werde leider zu einer Abnahme der Heterogenität in der Medienlandschaft führen, prognostizierte Goodwin. Investiert werden müsse wegen neuer erforderlicher Fähigkeiten zudem in die journalistische Aus-, aber auch Weiterbildung. Vor allem nicht-journalistische Mitarbeiter_innen einer Redaktion, etwa Informatiker_innen, benötigten eine „journalistische Sozialisation“. Außerdem bedürfe es, so der Kommunikationsforscher, rechtlicher Rahmenbedingungen, was die Transparenz, zum Beispiel bezüglich der Publikumsmessung, die Rechte nicht-menschlicher journalistischer Akteure sowie die Verantwortung dieser Akteure – Stichwort Urheberrecht – betreffe.

#krassmedial 2018: Dr. Stefan Baack erörterte die Frage, ob Leaks nur Strohfeuer oder Ausdruck einer nachhaltigen Veränderung im Journalismus sind
Foto: Matthias von Fintel

Eine ebenso wissenschaftliche Perspektive auf das Thema Datenjournalismus eröffnete im Anschluss Dr. Stefan Baack, assoziierter Forscher am Alexander von Humboldt Institut für Internet und Gesellschaft, der über die Nachhaltigkeit von Leaks wie den Panama Papers für die journalistische Arbeit referierte. Seine These: Statt zu fragen, ob einzelne Datenleaks zu Veränderungen im Journalismus führen, sollte untersucht werden, ob die Praxis des Leakings in den Journalismus integriert wird und welche Folgen das hat. Seine Forschungen haben ihn zu dem Schluss geführt, dass der Journalismus in der Folge der Enthüllungen durch die Plattform Wikileaks eine eigene Version des Leakings entwickelt hat – die sich im Gegensatz zur radikalen Transparenz des Julian Assange-Modells durch das klassische Rollenverständnis des Journalismus als Gatekeeper auszeichne. Das Leaking sei damit normalisiert und als journalistische Praxis anerkannt worden. Zu den nachhaltigen Folgen dieses Prozesses gehörten die Etablierung und Weiterentwicklung datenjournalistischer Methoden, die für die Arbeit mit Leaks zentral sind, sowie die Förderung einer kollaborativen Kultur im investigativen Journalismus. Als nachhaltige politische Folge, so Baack, sei zudem der abschreckende Effekt zu nennen: „Es gibt keine Sicherheit mehr, unerkannt zu bleiben.“

Vom Darknet in die Statistikhölle

Was es bei der Arbeit mit neuen Quellen ganz praktisch zu beachten gilt und welche Möglichkeiten es gibt, überhaupt an die Daten zu kommen, erfuhren die Teilnehmer_innen der Medientage in vier 30minütigen Workshops am Nachmittag, den sogenannten Speed Labs: Fabian A. Scherschel, Redakteur bei heise online, gab Anleitungen zur sicheren Kommunikation und zum Quellenschutz. Mit dem Journalisten für die Themen Überwachung, Datenschutz & Pressefreiheit Daniel Moßbrucker folgte ein Abstecher ins Darknet, ein Ort, der anonyme Kommunikation ermöglicht, aber auch neue Recherchequelle sein kann. Wie sich dagegen die frei zugänglichen amtlichen Statistiken als Datenquelle nutzen lassen, erklärte Klaus Pötzsch vom Statistischen Bundesamt. Und wie aus diesen Daten dann mit Hilfe des Data Minings Geschichten werden können, zeigte der Entwickler und Datenjournalist Sakander Zirai.

Open Data und Informationsfreiheit

#krassmedial 2018: Dr. Michael Mangold über Open Government Data und wie man die Verwaltungsdaten nutzbar machen kann
Foto: Matthias von Fintel

„Open Data“ und „Open Government“ stehen für die Idee, eine Vielzahl von Daten und Informationen für die Öffentlichkeit zur Verfügung zu stellen und nutzbar zu machen. Damit werden Open Government Data (OGD), also öffentlich zugängliche Daten der Verwaltung, auch als Quelle der Berichterstattung für Journalistinnen und Journalisten interessant. Das Problem: Die erfolgreiche Umsetzung von OGD scheitere an vielerlei Hürden und die Daten würden durch die Zivilgesellschaft bisher nur in geringem Maße nachgefragt, stellte Dr. Michael Mangold vom Institut für Angewandte Wirtschaftsforschung Tübingen in seinem Vortrag fest. Stolpersteine seien etwa die fehlende politische Unterstützung des Vorhabens durch kommunale Entscheidungsträger, rechtliche Unsicherheiten, etwa hinsichtlich des Datenschutzes, oder die fehlende Vertrautheit der Verwaltungsbeschäftigten mit den Datenformaten. Auf der anderen Seite, nämlich derjenigen der Bürgerinnen und Bürger, bestehe zum Teil nur geringes Interesse an den verfügbaren Daten, zu einem anderen – großen – Teil liege die mäßige Nachfrage aber auch an der Komplexität der Datenberge, für deren Erschließung eine gewisse Fachkenntnis unabdingbar sei. Um die Vision von OGD umsetzen zu können, bedürfe es daher einer Vermittlung und Aufbereitung der Daten sowie der Entwicklung von Tools zur Nutzung von OGD.

#krassmedial 2018: Ulf Buermeyer von der Gesellschaft für Freiheitsrechte legte dar, wie es um die Rechte auf Informationsfreiheit und informationelle Selbstbestimmung bestellt ist
Foto: Matthias von Fintel

Dass der Mentalitätswandel in den Behörden trotz Informationsfreiheitsgesetzen (IFG) auf Bundes- und auf Länderebene nur langsam voranschreitet, bestätigte auch Ulf Buermeyer, Richter am Landgericht Berlin und Vorsitzender der Gesellschaft für Freiheitsrechte (GFF), die mittels des Instruments der strategischen Prozessführung die Durchsetzung der grundgesetzlich garantierten Freiheitsrechte sichern und verbessern will. Den anwesenden Medienschaffenden empfahl er, Plattformen wie fragdenstaat.de zu nutzen, die bei Auskunftsanfragen nach dem IFG unterstützen. Und sollte auch das nicht helfen, dann unterstütze die GFF möglicherweise eine Transparenzklage. Sein Fazit: „Die IFGs können tatsächlich einen Wandel schaffen, nur dazu muss man sie auch nutzen. Das wird nur funktionieren, wenn man auch mal den Mut hat, vor Gericht zu gehen.“

nach oben

weiterlesen

Die Nacktheit im Fernsehen

Eine Zeitlang war Nacktheit im Fernsehen auch dank vieler freizügiger Angebote der Privatsender so normal, dass sich kaum noch jemand daran zu stören schien. Mittlerweile hat sich der Trend jedoch derart ins Gegenteil gekehrt, dass das nudistische RTL-Format „Adam sucht Eva“ zur Ausnahme wird. Liegt es am Zeitgeist, erregt nackte Haut in Zeiten von YouPorn keine Aufmerksamkeit mehr oder sitzen an den entscheidenden Stellen bei den Sendern inzwischen viel mehr Frauen als früher, weshalb der männliche Blick nicht mehr dominiert?
mehr »

ver.di: Ja zur Fusion der Fachbereiche

Eine wichtige Weichenstellung zur Bildung eines neuen gemeinsamen ver.di-Fachbereiches ist erfolgt: Der Vorstand des Fachbereiches Medien, Kunst und Industrie hat am 3. Juli mit breiter Mehrheit der Gründungsvereinbarung für einen neuen Fachbereich „A“ – so die vorläufige Bezeichnung – zugestimmt. Bei den zukünftigen Partnern gab es auf den Sitzungen ihrer Vorstände ebenfalls ein deutliches Ja. Auch ein gemeinsamer Kandidat für die künftige Bundesfachbereichsleitung wurde gefunden. Die abschließende Entscheidung über die Fusion findet im kommenden Frühjahr statt, im Anschluss an die Diskussionen auf den vier Bundesfachbereichskonferenzen.
mehr »

Klimareporter mit schärferem Profil

Seit 2007 berichtet das Online-Magazin „klimaretter.info“ über den Klimawandel und die Energiewende. Nun erfolgte ein Relaunch des Portals mit neuem Namen. Mit „klimareporter.de“ soll das journalistische Profil nach außen geschärft werden. Wir haben mit Chefredakteur Joachim Wille über den Relaunch gesprochen und darüber, was bei der aktuellen Klimaberichterstattung falsch läuft.
mehr »

Neugierig auf Menschen und neue Technologien

Journalist_innen von morgen sollten nicht nur neugierig auf Themen und Menschen sein, sondern auch auf neue Technologien. „Der Journalist lernt nie aus“, so Tina Bettels-Schwabbauer vom EU-Forschungsprojekt Newsreel, das notwendiges Rüstzeug für die Qualifizierung der nächsten Generation entwickeln will. Ein erster Bericht analysiert Defizite in der aktuellen Journalismus-Ausbildung der EU-Länder Rumänien, Ungarn, Portugal und Deutschland.
mehr »