#krassmedial: Gute Daten, schlechte Daten

#krassmedial 2018: Entwickler und Journalist Sakander Zirai über Methoden des Data Minings
Foto: Matthias von Fintel

Nicht nur um Daten, sondern ganz generell um die journalistische Arbeit mit neuen Quellen ging es auf den 8. ver.di-Medientagen, die vom 22. bis 24. Juni bereits zum dritten Mal in Folge im ver.di-Bildungszentrum Clara Sahlberg am Berliner Wannsee stattfanden. So sind Daten und Informationen zwar seit jeher Grundlage der journalistischen Berichterstattung, doch schaffen die Digitalisierung und die einhergehende massenhafte Datenerfassung neue Möglichkeiten – aber auch Herausforderungen. Nach Antworten darauf wurde in der mittlerweile bewährten Mischung aus praxisorientierten Workshops und Vorträgen gesucht.

„Vor allem wollen wir natürlich auch erfahren, ob es Schätze gibt, die wir in unserer journalistischen Arbeit heben können, von denen wir aber noch nichts wissen“, begrüßte die dju-Bundesgeschäftsführerin und Leiterin des Bereichs Medien bei ver.di, Cornelia Haß, die in diesem Jahr zugleich auch durch die Tagung führte, das Publikum. Rund 40 Medienschaffende aus allen Bereichen waren für das Wochenende angereist, nicht nur um sich weiterzubilden, sondern auch um zu netzwerken – zum Beispiel beim kollektiven Mitzittern während der Partie der deutschen Nationalelf, die am Samstagabend gegen Schweden das Vorrundenaus zunächst abwenden konnte.

#krassmedial 2018: dju-Bundesgeschäftsführerin Cornelia Haß und Prof. Dr. Michael Strube während seines Einführungsvortrags
Foto: Matthias von Fintel

Mit Künstlicher Intelligenz gegen Fake News und Co.

Mit einem Blick über den medialen Tellerrand und in die Zukunft des Journalismus mit Daten eröffnete der Computerlinguist Prof.Dr. Michael Strube vom Heidelberger Institut für theoretische Studien (HITS) am Freitagabend die Tagung. Der begeisterte Zeitungsleser, der seit seiner Schulzeit die FAZ abonniert hat und seit 25 Jahren kein Windows mehr benutzt, warb für eine engere Zusammenarbeit von Journalismus und Wissenschaft. Denn die Computerlinguistik arbeite nicht nur daran, Medienschaffende in ihrer Arbeit durch das Bereitstellen bestimmter Tools zu unterstützen, sondern könne mit ihren Methoden den Journalismus auch analysieren. Dafür bedürfe es aber großer Datensätze aus der Medienpraxis, mit deren Hilfe dann Deep-Learning-Verfahren trainiert würden. Schon immer arbeite die Computerlinguistik vorrangig mit journalistischen Texten, die ihr von Verlagen, in Deutschland etwa der taz, zur Verfügung gestellt werden. Durch die Analyse dieser Daten sei es möglich, intelligente Algorithmen zu trainieren, die dann etwa bei der Optimierung von Artikeln oder auch beim Erkennen von Fake News helfen könnten. Möglich seien auch Methoden, um Kommentarspalten im Netz automatisch zu moderieren und damit gegen Hate Speech vorzugehen, sagte Strube, der zu diesem Thema auch Workshops an seinem Institut anbietet. Alles noch Zukunftsmusik? Im Moment ja, manche Tools, wie etwa eines zur automatischen Textanalyse unterschiedlichster Quellen im Netz, könnten aber schon in drei Jahren für die Medienpraxis bereitstehen, kündigte der Wissenschaftler an.

Datenjournalismus von Berlin bis Panama

#krassmedial 2018: Marie-Louise-Timcke von der Berliner Morgenpost sorgte für einen erfrischenden Start in den Konferenzsamstag
Foto: Matthias von Fintel

Für einen trotz Regenwetters sonnigen Start in den zweiten Konferenztag sorgte die Leiterin des Interaktiv-Teams bei der Berliner Morgenpost und Gründerin von Journocode, Marie-Louise Timcke. Die 25-Jährige, die eigentlich Molekularmedizinerin werden wollte, sich dann aber überlegte, dass sie viel lieber über die Wissenschaft redet als jeden Tag acht Stunden im Labor zu stehen, bot den anwesenden Medienschaffenden spannende Einblicke in die Arbeit ihres fünfköpfigen Teams, bei der weniger Datenanalysen als vielmehr die Visualisierungen unterschiedlichster Themen im Vordergrund stünden. So wie etwa bei der interaktiven 3D-Animation „Berlins neue Skyline“, in der die Leser_innen entdecken können, wie die Berliner Innenstadt seit 1990 gewachsen ist und wie sie in Zukunft aussehen soll. Gefragt nach der Finanzierung solch innovativer Projekte, bedauerte die junge Journalistin, dass diese immer mehr auf die Medienschaffenden selbst zurückfalle. So müssten sie und ihre Kollegen oft auch Firmenprojekte an Land ziehen oder wertvolle Zeit für die Integration von Werbeanzeigen in die Visualisierungen aufwenden. „Eigentlich müsste sich aber der Verlag darum kümmern, wie man damit Geld verdienen kann.“ Den Zuhörenden gibt sie noch mit auf den Weg: „Nur weil ein Ergebnis auf Daten beruht, ist es nicht Fakt.“ Es müsse immer mit klassisch journalistischer Recherche gegengecheckt werden, nicht zuletzt, weil auch die Daten selbst fehlerhaft sein können: „Dass Daten objektiv sind, stimmt nicht. Und das müssen wir dem Leser vermitteln.“

#krassmedial 2018: Dr. Bernhard Goodwin über die Herausforderungen im Umgang mit Daten aus wissenschaftlicher Perspektive
Foto: Matthias von Fintel

Dass das klassische journalistische Handwerk trotz der Datenflut in der Medienpraxis „stabil bleibt und stabil bleiben soll“, betonte auch Dr. Bernhard Goodwin vom Institut für Kommunikationswissenschaft und Medienforschung der Ludwig-Maximilians-Universität München, der die journalistische Arbeit mit Daten aus einer forschungstheoretischen Perspektive beleuchtete. Journalistische Entwicklungsfelder identifizierte er im Datenjournalismus, im Roboterjournalismus, in der publikumsdatenbasierten Redaktion sowie in der Personalisierung von Medienkonsum. Und welche Implikationen hat das für die Medienpraxis? Datenjournalismus, der wirtschaftlich nur für größere Unternehmen leistbar ist, werde leider zu einer Abnahme der Heterogenität in der Medienlandschaft führen, prognostizierte Goodwin. Investiert werden müsse wegen neuer erforderlicher Fähigkeiten zudem in die journalistische Aus-, aber auch Weiterbildung. Vor allem nicht-journalistische Mitarbeiter_innen einer Redaktion, etwa Informatiker_innen, benötigten eine „journalistische Sozialisation“. Außerdem bedürfe es, so der Kommunikationsforscher, rechtlicher Rahmenbedingungen, was die Transparenz, zum Beispiel bezüglich der Publikumsmessung, die Rechte nicht-menschlicher journalistischer Akteure sowie die Verantwortung dieser Akteure – Stichwort Urheberrecht – betreffe.

#krassmedial 2018: Dr. Stefan Baack erörterte die Frage, ob Leaks nur Strohfeuer oder Ausdruck einer nachhaltigen Veränderung im Journalismus sind
Foto: Matthias von Fintel

Eine ebenso wissenschaftliche Perspektive auf das Thema Datenjournalismus eröffnete im Anschluss Dr. Stefan Baack, assoziierter Forscher am Alexander von Humboldt Institut für Internet und Gesellschaft, der über die Nachhaltigkeit von Leaks wie den Panama Papers für die journalistische Arbeit referierte. Seine These: Statt zu fragen, ob einzelne Datenleaks zu Veränderungen im Journalismus führen, sollte untersucht werden, ob die Praxis des Leakings in den Journalismus integriert wird und welche Folgen das hat. Seine Forschungen haben ihn zu dem Schluss geführt, dass der Journalismus in der Folge der Enthüllungen durch die Plattform Wikileaks eine eigene Version des Leakings entwickelt hat – die sich im Gegensatz zur radikalen Transparenz des Julian Assange-Modells durch das klassische Rollenverständnis des Journalismus als Gatekeeper auszeichne. Das Leaking sei damit normalisiert und als journalistische Praxis anerkannt worden. Zu den nachhaltigen Folgen dieses Prozesses gehörten die Etablierung und Weiterentwicklung datenjournalistischer Methoden, die für die Arbeit mit Leaks zentral sind, sowie die Förderung einer kollaborativen Kultur im investigativen Journalismus. Als nachhaltige politische Folge, so Baack, sei zudem der abschreckende Effekt zu nennen: „Es gibt keine Sicherheit mehr, unerkannt zu bleiben.“

Vom Darknet in die Statistikhölle

Was es bei der Arbeit mit neuen Quellen ganz praktisch zu beachten gilt und welche Möglichkeiten es gibt, überhaupt an die Daten zu kommen, erfuhren die Teilnehmer_innen der Medientage in vier 30minütigen Workshops am Nachmittag, den sogenannten Speed Labs: Fabian A. Scherschel, Redakteur bei heise online, gab Anleitungen zur sicheren Kommunikation und zum Quellenschutz. Mit dem Journalisten für die Themen Überwachung, Datenschutz & Pressefreiheit Daniel Moßbrucker folgte ein Abstecher ins Darknet, ein Ort, der anonyme Kommunikation ermöglicht, aber auch neue Recherchequelle sein kann. Wie sich dagegen die frei zugänglichen amtlichen Statistiken als Datenquelle nutzen lassen, erklärte Klaus Pötzsch vom Statistischen Bundesamt. Und wie aus diesen Daten dann mit Hilfe des Data Minings Geschichten werden können, zeigte der Entwickler und Datenjournalist Sakander Zirai.

Open Data und Informationsfreiheit

#krassmedial 2018: Dr. Michael Mangold über Open Government Data und wie man die Verwaltungsdaten nutzbar machen kann
Foto: Matthias von Fintel

„Open Data“ und „Open Government“ stehen für die Idee, eine Vielzahl von Daten und Informationen für die Öffentlichkeit zur Verfügung zu stellen und nutzbar zu machen. Damit werden Open Government Data (OGD), also öffentlich zugängliche Daten der Verwaltung, auch als Quelle der Berichterstattung für Journalistinnen und Journalisten interessant. Das Problem: Die erfolgreiche Umsetzung von OGD scheitere an vielerlei Hürden und die Daten würden durch die Zivilgesellschaft bisher nur in geringem Maße nachgefragt, stellte Dr. Michael Mangold vom Institut für Angewandte Wirtschaftsforschung Tübingen in seinem Vortrag fest. Stolpersteine seien etwa die fehlende politische Unterstützung des Vorhabens durch kommunale Entscheidungsträger, rechtliche Unsicherheiten, etwa hinsichtlich des Datenschutzes, oder die fehlende Vertrautheit der Verwaltungsbeschäftigten mit den Datenformaten. Auf der anderen Seite, nämlich derjenigen der Bürgerinnen und Bürger, bestehe zum Teil nur geringes Interesse an den verfügbaren Daten, zu einem anderen – großen – Teil liege die mäßige Nachfrage aber auch an der Komplexität der Datenberge, für deren Erschließung eine gewisse Fachkenntnis unabdingbar sei. Um die Vision von OGD umsetzen zu können, bedürfe es daher einer Vermittlung und Aufbereitung der Daten sowie der Entwicklung von Tools zur Nutzung von OGD.

#krassmedial 2018: Ulf Buermeyer von der Gesellschaft für Freiheitsrechte legte dar, wie es um die Rechte auf Informationsfreiheit und informationelle Selbstbestimmung bestellt ist
Foto: Matthias von Fintel

Dass der Mentalitätswandel in den Behörden trotz Informationsfreiheitsgesetzen (IFG) auf Bundes- und auf Länderebene nur langsam voranschreitet, bestätigte auch Ulf Buermeyer, Richter am Landgericht Berlin und Vorsitzender der Gesellschaft für Freiheitsrechte (GFF), die mittels des Instruments der strategischen Prozessführung die Durchsetzung der grundgesetzlich garantierten Freiheitsrechte sichern und verbessern will. Den anwesenden Medienschaffenden empfahl er, Plattformen wie fragdenstaat.de zu nutzen, die bei Auskunftsanfragen nach dem IFG unterstützen. Und sollte auch das nicht helfen, dann unterstütze die GFF möglicherweise eine Transparenzklage. Sein Fazit: „Die IFGs können tatsächlich einen Wandel schaffen, nur dazu muss man sie auch nutzen. Das wird nur funktionieren, wenn man auch mal den Mut hat, vor Gericht zu gehen.“

nach oben

Weitere aktuelle Beiträge

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »

Gewalt an Frauen bleibt Leerstelle

Gewalt gegen Frauen ist in Deutschland alltäglich. Und nicht nur in Politik und Justiz besteht großer Nachholbedarf im Kampf gegen geschlechtsspezifische Gewalt: Auch die journalistische Praxis zeigt deutliche Schwächen und erhebliche Leerstellen. Der aktuelle Trendreport der Otto Brenner Stiftung nimmt die Jahre 2020 bis 2022 in den Blick und stellt fest: Gewalt gegen Frauen wird isoliert dargestellt, ohne strukturelle Ursachen und Präventionsmöglichkeiten zu thematisieren. Das betrifft besonders deutsche Täter. Die Perspektive der Opfer bleibt unterbelichtet.
mehr »