Professionell gegen „Hackmac“ im Netz

30. Journalistentag der Medienschaffenden in ver.di am 21. Januar 2017 in Berlin Foto: Jan-Timo Schaube

Unter dem Motto „Hashtag, Hightech, Hackmac“ wurde am 21. Januar in Berlin auf dem 30. Journalistentag von ver.di über Datenjournalismus debattiert. Sich konsequenter mit technologischen Innovationen und daraus folgenden gesellschaftlichen Trends zu beschäftigen und sie mitzugestalten, forderte Datenjournalist Marco Maas. „Dass andere rechts und links von uns Fakten schaffen“ in einer zunehmend datenbasierten Welt, dürfe nicht ohne professionelle Antwort bleiben.

„Wie behalten wir als Journalist_innen den Durchblick im Meer immer weiter anwachsender Daten?“, fragte Frank Werneke, stellvertretender ver.di-Vorsitzender in seinem Eingangsstatement. Für die Entwicklung des „Datenjournalismus“ in der heutigen Dimension seien sowohl technische Entwicklungen wie mobiles Internet und größere Speicherkapazitäten als auch Trends der Nutzung, etwa in sozialen Netzwerken, maßgebend. Das ermöglicht auch Journalistinnen und Journalisten, weltweit vernetzt Daten zu verwenden und zu analysieren – selbst recherchiert oder von Whistleblowern bereitgestellt. Dass fremde Computersysteme auch gehackt werden könnten, habe mitunter massive gesellschaftliche Auswirkungen, bringe Fake News hervor und eröffne über Social Bots Themen und Meinungen vermeintliche Relevanz. Darauf sei zu reagieren, Vorschläge zur Eindämmung der Meinungsmanipulation seien sorgfältig zu diskutieren. „Eine behördliche Wahrheitsprüfung kann und darf es allerdings nicht geben.“ Sie würde gegen Artikel 5 des Grundgesetzes verstoßen, so Werneke. Zu begrüßen sei hingegen, wenn große demokratische Parteien planten, im bevorstehenden Bundeswahlkampf auf den Einsatz von Social Bots zu verzichten. Mit Selbstverpflichtungen allein werde man jedoch nicht weiterkommen, auch große Plattformen wie Facebook und Twitter stünden in der Verantwortung. Der Kampf gegen Fake News und das Aufbrechen von Filter Bubbles sei „aber vor allem ein Weckruf an die Medienhäuser und Journalisten“. Gute Recherche und Aufklärung sah Werneke als bestes Gegenmittel gegen Fake News und zur Wiedergewinnung verloren gegangenen Vertrauens.

Frank Werneke, stellvertretender ver.di-Vorsitzender mit Moderatorin Tina Groll
Foto: Jan-Timo Schaube

Die Digitalisierung der Arbeitswelt stelle auch die gewerkschaftliche Interessenvertretung vor neue Aufgaben, um trotz zunehmender Vereinzelung von Selbständigen oder Clickworkern organisatorische Kraft gegenüber Arbeitgebern zu entwickeln. Es dürften keine „Parallelwelten“ entstehen, in denen „am Fließband digitale Produkte und Inhalte zu letztlich vorindustriellen Bedingungen hergestellt“ werden. Rechtliche Bedingungen, unter denen sich die digitale Transformation vollzieht, seien mitzugestalten. Das gelte etwa für die Mitsprache von Freien in den Personalvertretungen der Rundfunkanstalten, aber auch für neue Tarifverträge.

Datenjournalismus – Tochter computergestützter Recherche

Fachlich startete die Journalistin Sylke Gruhnwald, auch Vorstandsvorsitzende von Journalismusfund.eu, mit „Mehr als lose Zahlen: eine Einführung“. Datengetriebener Journalismus oder evidenzbasiertes Arbeiten sei „die kleine Tochter computergestützter Recherche“, erklärte sie. Mit Hilfe von Computertechnik und Datenbanken ginge es darum, Informationen zu sammeln, zu analysieren, aufzubereiten und der Öffentlichkeit zugänglich zu machen. Wesentliche juristische Basis seien Informationsfreiheitsgesetze. Daneben sei nach wie vor das „klassisches Reporterhandwerkszeug“ gefragt: „Rausgehen, Menschen treffen, zuhören.“ Man sei nach wie vor auf Personen angewiesen, mit deren Hilfe Geschichten erzählt werden können.

Sylke Gruhnwald, Vorstandsvorsitzende von Journalism.fund.eu
Foto: Jan-Timo Schaube

Die Keynote-Rednerin unterschied aktive und passive Akquise von Informationen beziehungsweise deren freiwillige oder unfreiwillige Preisgabe. Oft – wie im Fall einer Recherche zur Parteienfinanzierung in der Schweiz – helfe einfach Nachfragen. Wenn man so keine Daten erlangen könne, müssten Methoden wie das Scraping anderweitig verfügbarer Daten genutzt werden. Immer ginge es darum, seriöse Schlüsse zu ziehen und Ergebnisse gut zu visualisieren. Sie zeigte das am Beispiel von Lobbywatch.ch, einer Website, die für mehr Transparenz im Schweizerischen Parlament sorge. Bei von Whistleblowern erlangten Daten stehe Quellenschutz obenan. Oft sei es nötig, aus ganzen Festplatten oder Datenbergen Files nach Relevanz zu filtern. Schließlich laufe verdeckte Recherche zumeist über soziale Netzwerke, wo „Angaben auf privaten Accounts abgegriffen und so Geschichten nachgezeichnet“ würden. So geschehen bei Recherchen über junge Leute, die sich dem Dschihad anschlossen. Immer sei „Technologie als Hilfsmittel total wichtig“, Journalist_innen sollten Tabellenkalkulations- und Verschlüsselungssoftware erlernen, gern aber auch den traditionellen Postweg zur Kommunikation nutzen und sich interdisziplinär austauschen. Nicht immer stünden globale Themen im Zentrum von Datenrecherche, „auch Interessantes vor der Haustür“ lohne es herauszufiltern.

Muster finden und Geschichten schreiben

Ulrike Köppen, BR Data
Foto: Jan-Timo Schaube

Mit der Arbeit mit Daten in der Praxis beschäftigten sich Moderator Manfred Kloiber und drei versierte Datenjournalist_innen unter der Fragestellung „Große Daten – große Geschichten?“ Bedeutende Stories entstünden trotz allen Datenrechercheaufwandes „relativ selten“, schränkte Ulrike Köppen von BR Data ein. Sie brach eine Lanze für ihr interdisziplinäres Team beim Bayerischen Rundfunk und schärfte den „journalistischen Blick auf Daten“. Journalisten, Designer und Entwickler ergänzten sich beim Analysieren, Erzählen und Visualisieren von Inhalten. Oft stelle sich die Frage, „Muster in großen Datenmengen“ zu finden, aus denen sich die Geschichte ergebe. Bei einer Recherche über die Männerdroge Testosteron etwa, für die man den Zoll als Partner gewann, hätten die Rechercheure „einen völlig neuen Blick auf den Schwarzmarkt gewonnen“. Anschließend sei zu entscheiden, wie man die Sache für Online, Radio oder TV adäquat erzählen könne.

Christina Elmer, Spiegel Online
Foto: Jan-Timo Schaube

Zuvor hatte bereits Christina Elmer von Spiegel Online berichtet, dass sich ihr Team mit länger- und kurzfristigen Projekten beschäftige, wo es auf Tagesaktualität ankomme, wie etwa bei Ergebnisdarstellung nach dem Brexit-Votum oder der Trump-Wahl. Immer gehe es um Transparenz und Reichweite. Spiegel Online habe aber auch die Mission „mehr Daten in die Redaktion zu bringen“. Elmer stellte die Frage nach „Metriken für den Erfolg“ von Datenjournalismus. Sie stellte Klickzahlen als „neue Währung“ infrage und regte an, „ein anderes Datenmodell für erfolgreiche Beiträge zu finden“.

Marco Maas, OpenDataCity
Foto: Jan-Timo Schaube

Marco Maas, geschäftsführender Gesellschafter der Agentur OpenDataCity, vermisste bei den großen Medienhäusern ausreichende Innovationsfähigkeiten und ein Gespür für Neues. Notwendig wäre, dass sie bei den Entwicklungen „vorne dabei“ seien, das sehe er kaum. So würden die aufwändigen Prozesse von Datenrecherchen und -aufarbeitung bislang nicht adäquat bezahlt, es zähle einzig das journalistische Endprodukt. Deshalb könnten sich viele Freie den Arbeitsaufwand nicht leisten, zumal sie in der Regel zusätzlich auf Programmierer_innen und Grafiker_innen angewiesen sind. Spannend sei für Maas „die Mediendistribution in Zeiten des Internets der Dinge“. Seine Agentur ziehe gegenwärtig rund 80 Prozent der Einnahmen aus dem nichtjournalistischen Bereich, von Stiftungen oder NGO. Redaktionen sollten im Datenzeitalter die Entwicklung nicht verpassen und „konstantes Arbeiten an Innovationen lernen“.

Wer profitiert von Recherchenetzwerken?

Simon Wörpel, Correktiv
Foto: Jan-Timo Schaube

Wie Datenjournalismus sich für lokale, regionale und bundesweite Recherchen nutzen lässt, erläuterte „Nerd“ und Journalist Simon Wörpel vom Recherchebüro Correctiv. So sammelte das Team mit crowd-basierten Tools z.B. bundesweit Infos zu Gebühren von Sparkassen und Gehältern ihrer Vorstände, stellte die Daten dann Redaktionen zur Verfügung, die sie auf die Geldhäuser vor Ort herunter brechen konnten. Ein Beispiel für regionale Datenrecherche: Correctiv erhob Infos zur Nitratbelastung in NRW und stellte fest, dass Petershagen besonders stark betroffen war. Journalist_innen vor Ort konnten jetzt Fragen nach den Gründen stellen und darüber berichten.

Die Rechercheergebnisse von Correctiv werden allen zur Verfügung gestellt – Zeitungsverlagen, freien Journalist_innen, die damit weiterarbeiten wollen, aber auch jedem Interessierten, der sich auf der Correctiv-Homepage informiert. Hier setzte die Kritik des Kölner Medienprofessors und

Medienwissenschaftler Hektor Haarkötter
Foto: Jan-Timo Schaube

Journalisten Hektor Haarkötter an: „Sollen wir Journalismus verschenken?“ Als Beispiel nannte er eine Kooperation mit dem „Kölner Stadtanzeiger“aus dem Hause DuMont, die als „copy and paste“ funktioniere. Sollten die nicht eigene Recherchen von bezahlten Mitarbeiter_innen machen lassen? „Das Geld haben die!“ Wörpel: „So viele Aufträge gehen freien Journalisten durch Correctiv auch nicht flöten.“ Haarkötter: „Sollte Correctiv die Rechercheergebnisse nicht besser direkt den Lesern schenken?“ Wörpel: „Die Reportage aus dem Kölner Stadtanzeiger findet sich auf unserer Homepage!“ Aus dem Publikum kamen kritische Fragen zur Kooperation des Correctiv-Teams mit dem kommerziellen Facebook bei der Fake News-Analyse. Ganz ohne Bezahlung? Simon Wörpel beruhigt: Es ginge zunächst um das Vorgehen bei der Aufdeckung von Fake News. Dazu hole sich Facebook Medienpartner wie Correctiv. Mehr sei noch nicht vereinbart. Eine weitere Frage: Was verdienen Datenjournalist_innen eigentlich? Darauf Haarkötter: Die Entlohnung sei Sache der Gewerkschaft. Moderatorin Tina Groll, selbst Betriebsrätin bei Zeit online, ermunterte zum Kampf für eine gerechte Eingruppierung nach Tarif: „Gerade junge Journalisten und Journalistinnen, die programmieren können, sollten sich ihres Marktwerts bewusst sein!“

Daten „vermenschlichen“

Nadine Cibu und Julia Viegener von der Abschlussklasse der Deutschen Journalistenschule (DJS) München haben das Thema „Datenjournalismus“ filmisch aufbereitet – in Straßenumfragen, Expertengesprächen und durch ein eigenes Projekt zur Frage „Wie berichten Zeitungen über Ausländerkriminalität?“ Sie werteten 2000 Artikel aus und stellten fest, „dass doppelt so häufig über Migranten als Täter berichtet wird, obwohl das nach der Polizeistatistik ganz anders ist.“ Fazit: Daten gehören mittlerweile zur Recherche, sollten aber „vermenschlicht“ werden: „Wir müssen schauen, was diese Daten in der echten Welt bedeuten!“

Annette Brückner, CIVES, Constanze Kurz, Chaos Computerclub, Vanessa Wormer, Süddeutsche Zeitung und Jan Strozyk, Investigationsteam NDR und Moderator Manfred Kloiber (v.l.n.r.)
Foto: Jan-Timo Schaube

Fast alle bisher aufgetretenen Referent_innen meinten, dass Datenrecherchen für einzelne freie Journalist_innen zu aufwändig und nur in interdisziplinären Redaktionsteams zu leisten seien – oder von Rechercheverbünden. Doch wie relevant, nachhaltig und vor allem dominant sind diese? Manfred Kloiber lotete das am Beispiel des Rechercheverbundes NDR/WDR/Süddeutsche Zeitung (SZ) in einer Diskussionsrunde aus. Vanessa Wormer, Datenjournalistin bei der SZ erläuterte, wann die drei Medien kooperieren: Wenn einzelne alleine mit den Datenmengen überfordert sind und wenn sie von internationaler Bedeutung sind, also Bezüge zu mehreren Ländern haben wie etwa im Falle der Panama-Papers. Ein weiteres Kriterium sei die bisherige Zusammenarbeit, die Informationszugänge von Kolleg_innen. Klaus Ott von der SZ sei etwa gut über VW im Bilde, was wiederum für den NDR interessant sei. Wormers Kollege Jan Strozyk vom Investigationsteam des NDR ergänzte: „Wir haben unterschiedliche Profile, aber auch unterschiedliche Schwerpunktregionen.“

Politische Instrumentalisierung hinterfragen

Die beiden anderen Diskutantinnen kritisierten die Arbeit der Rechercheverbünde. Annette Brückner, die in ihrem CIVES Redaktionsbüro offene Dokumente etwa von Behörden analysiert, vermisste z.B. an den Datenrecherchen zu den Panama-Papers, dass die letztendlichen Nutznießer der Offshore-Geschäfte unklar blieben, da sie als letzte in der Kette in den Dokumenten nicht auftauchten. Deshalb müsse man immer fragen: „Woher kommen die Originalinformationen? Wer hat ein Interesse, sie an die Öffentlichkeit zu bringen?“

Werden Rechercheverbünde politisch instrumentalisiert, hinterfragte Brückner am Beispiel eines internen Behördenpapiers zum Fall des Berlin-Attentäters Anis Amri. Die Tagesschau zitierte daraus – allerdings nicht alles, wie Äußerungen von Christian Ströbele hinterher zeigten. „Das, was durchgestochen wird, sollte vollständig wiedergegeben werden“, so Brückner.

Auch Constanze Kurz, Sprecherin des Chaos Computer Clubs, zeigte sich skeptisch gegenüber dem Rechercheverbund. Der Club gehe „gezielt und planvoll auf einzelne Journalistinnen und Journalisten bestimmter Medienhäuser zu. Wir brauchen sie, um Reichweite für unsere Datenrecherchen zu erzielen.“ An den deutschen Rechercheverbünden störe sie die “unpolitische Haltung“ – im Gegensatz zu den internationalen Kooperationen, die ihre Macht nutzten, „um gegen die Mächtigen zu schreiben.“ NDR-Datenjournalist Jan Strozyk entgegnete:„Ich bin stolz darauf, dass wir neutral und unpolitisch arbeiten.“

Transparenz und Quellenschutz

Transparenz schreiben die Aktivist_innen von CCC und das Webportal netzpolitik.org, bei dem Kurz auch arbeitet, ganz groß: „Wir hauen die Originaldokumente raus – immer! Anders als die Rechercheverbünde wollen wir, dass jeder das nachvollziehen kann!“ „Und wie ist das mit dem Quellenschutz, wenn mein Informant dadurch verraten wird“, fragte SZ-Datenjournalistin Wormer. Darauf Kurz: „Persönliche Daten sind zu schützen, aber der Rest ist rauszuhauen!“ Jan Strozyk vom NDR meinte, bei den Öffentlich-Rechtlichen mache das keinen Sinn, weil doch nur eine sehr kleine Gruppe damit etwas anfangen könne.

Datenjournalismus: Teil einer modernen Ausbildung

Christoph Marty, Goethe-Universität Frankfurt
Foto: Jan-Timo Schaube

Nach einer kontroversen Diskussion über die Arbeit der Rechercheverbünde von Daten- und Investigativjournalisten berichtete Christoph Marty, der am Aufbau des Studienschwerpunkts Datenjournalismus an der TU Dortmund beteiligt war und inzwischen im Präsidialbereich der Uni Frankfurt arbeitet, vom Weg, der in den Datenjournalismus führt. Datenjournalismus gewinne an den Unis und in der Weiterbildung eine zunehmende Aufmerksamkeit als wichtiger Teil einer modernen Journalistenausbildung. Als relativ neuem Thema gebe es für den Datenjournalismus bisher noch wenig Lehrmaterial und Untersuchungen über das Arbeitsgebiet und seine Resonanz in der Öffentlichkeit.

Marty zeigt sich davon überzeugt, dass vor allem die Hochschule der geeignete Ausbildungsort für Datenjournalismus sei. Sie biete die Möglichkeit, verschiedene Fächer wie Journalistik, Informatik, Programmieren und Grafik für die Recherche, Auswertung, Analyse, Aufbereitung und Präsentation im Datenjournalismus als Kombination in einem Haus anzubieten. Das sei eine optimale Vorbereitung auf die Zusammenarbeit mit den meist aus verschiedenen Fachrichtungen zusammengesetzten Teams des „Data Driven Journalism“. Marty: „Datenjournalismus ist ein sehr vielfältiges Jobprofil.“

Eine vielfältige Ausbildung im Datenjournalismus könne auch späteren Redakteur_innen helfen, den nötigen “Perspektivenwechsel“ in den Redaktionen mitzugestalten. Denn der Datenjournalismus sei gerade auch für den regionalen Aspekt der Lokalredaktionen eine lohnende Arbeitsweise. Dabei könne eine bessere Ausbildung der Journalisten mit statistischen Auswertungsmethoden zum einen den oft kritisierten Umgang mit Statistiken oder Meinungsumfragen in den Medien verbessern und zum zweiten noch sehr viele meist unbeachtete Aspekte aus den Datensätzen für neue Themen erschließen. Da sei noch viel Potenzial ungenutzt.

Starke und schwache Künstliche Intelligenz

Der Schlussvortrag des Referenten Reinhard Karger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), einer gemeinnützigen GmbH mit mehreren Standorten, führte die Zuhörer_innen dann direkt in die Wissenschaft. Karger sprach in seinem überaus amüsanten Vortrag über ernste Themen wie Roboterjournalismus, Künstliche Intelligenz, Datenjournalismus und Fake News.

Reinhard Karger, Deutsches Forschungszentrum für künstliche Intelligenz
Foto: Jan-Timo Schaube

Künstliche Intelligenz (KI) werde unterschieden in „starke“ und „schwache“ KI. Die „starke“ bezeichne die Forschung nach dem „Homunculus“, dem Nachbau des Menschen, was Karger eher als „Ideengeber für Hollywood“ abtat. Das DFKI forsche in den Bereichen der „schwachen KI“, im Nachbau einzelner menschlicher Fähigkeiten als Assistenzsysteme für den Menschen, als Möglichkeiten unterstützender Dienstleistung und auch „um die Probleme zu beseitigen, die wir geschaffen haben, etwa Fukushima mal mit Robotern aufzuräumen“.

Untersuche man die verschiedenen Bereiche der Intelligenz, so ist der Mensch der Maschine in den meisten wie sensomotorischer, emotionaler, sozialer oder kollektiver Intelligenz überlegen. Lediglich in der kognitiven Intelligenz, dem Management von Wissen und Erinnerung, habe die Maschine den Menschen überrundet. Kann diese kognitive künstliche Intelligenz dem Journalismus helfen, fragte der Referent. Die Möglichkeiten der „Digitalen Kuratierung“, der Rechnerhilfe beim Zusammenfassen oder der Analyse von Texten oder den Übersetzungshilfen schreite voran. Der Roboterjournalismus, die maschinelle Erzeugung natürlich sprachiger Texte zur Veröffentlichung von Artikeln, müsse „erst mal den Zustand erreichen, dass man nicht sofort wegläuft“ und den von manchem propagierten Einsatz von Robotern als Radio- oder Fernsehmoderatoren könne er sich noch gar nicht vorstellen. Die künstliche Texterstellung wird zwar vom Anbieter Retresco schon beworben mit dem Spruch „Macht das prüfende Auge des Redakteurs entbehrlich“. Aber Karger sieht Anwendungsmöglichkeiten des Roboterjournalismus nur in sehr schematischen Berichtsthemen wie Sport-, Wetter- oder Börsenberichten, die quasi Tabellen zu Texten aufarbeiten. Die Frage sei, ob der Leser es wissen soll, wenn er einen maschinell erstellten Text vor sich hat. Er finde ja, und regte die Einführung eines Kennzeichens für einen „Roboting Generated Text“ an.

Social Fame und Populismus

Zum Thema Fake News, Falschmeldung oder Zeitungsente unterschied Karger zwischen wissentlichen und nicht-wissentlichen sowie zwischen manipulativen oder nicht-manipulativ beabsichtigten Fehlmeldungen. Dabei sei zu beobachten, dass der Faktencheck von kursierenden Falschmeldungen in Social Media aus zwei Gründen oft unterbleibe: Zum einen von Verbreitern, denen der Wahrheitsgehalt egal ist und die hauptsächlich „Social Fame“ im Netz damit ernten wollen. Zum anderen mit Absicht aus Populismus, wie gerade 2016 in der Brexit-Schlacht oder im amerikanischen Wahlkampf zu beobachten war. Letztere Haltung sei nicht „prä- oder postfaktisch, sondern einfach faktenfern!“ Gefragt nach dem Umgang mit Social Bots erklärte Karger, dass Twitter diese künstlichen Accounts ohne großen Aufwand herausfiltern könne. Die entsprechenden Tweets und Retweets sollten mit einem „Social Bot Activity Factor“ gekennzeichnet werden. Damit würde deutlich, dass bei einem Aufreger-Thema vielleicht 90 Prozent der Tweets künstlich erzeugt seien. Das Interesse würde wohl stark nachlassen.

Peter Freitag, stellvertretender dju-Vorsitzender und Conny Haß, dju-Bundesgeschäftsführerin
Foto: Jan-Timo Schaube

Zum Abschluss griffen der stellvertretende dju-Bundesvorsitzende Peter Freitag und dju-Bundesgeschäftsführerin Cornelia Haß noch einmal einzelne Aspekte aus den Vorträgen und Diskussionen auf. So hatte Marco Maas zu wenig Innovationswillen in den Medienhäusern beklagt. Die Kreativität für Innovationen sei in den Redaktionen jedoch Freitag zufolge durchaus vorhanden, werde aber von Geschäftsführungen, wie gerade beim DuMont Verlag in Berlin vorexerziert, in den Redaktionen durch unmögliche Arbeitsbedingungen behindert. Und Freie werden durch niedrige Honorarsätze an ihrer Kreativität gehindert. Leider habe die Novelle des Urhebervertragsrechts kaum Möglichkeiten gebracht, die mit den Verlegern ausverhandelten Vergütungssätze endlich in allen Medienhäusern durchzusetzen.

Mit einem positiven Blick in die USA schloss Haß: Seit dem Wahlkampf und –ergebnis steigen die Neueinstellungen von Journalist_innen in amerikanischen Medien ebenso wie die Abonnentenzahlen bei Qualitätsmedien. Ein Trend, der gerne auch in Deutschland Schule machen dürfe. Und mit einem allerletzten positiven Ausblick endete der 30. Journalistentag: „Wir sehen uns wieder am 20. Januar 2018!“


30. Journalistentag: Das sagt unser Publikum

 

 

 

 

 

 

 

 

 

 

 

 

Das war der 30. Journalistentag

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Video: Stoyan Radoslavov

nach oben

Weitere aktuelle Beiträge

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »

Gewalt an Frauen bleibt Leerstelle

Gewalt gegen Frauen ist in Deutschland alltäglich. Und nicht nur in Politik und Justiz besteht großer Nachholbedarf im Kampf gegen geschlechtsspezifische Gewalt: Auch die journalistische Praxis zeigt deutliche Schwächen und erhebliche Leerstellen. Der aktuelle Trendreport der Otto Brenner Stiftung nimmt die Jahre 2020 bis 2022 in den Blick und stellt fest: Gewalt gegen Frauen wird isoliert dargestellt, ohne strukturelle Ursachen und Präventionsmöglichkeiten zu thematisieren. Das betrifft besonders deutsche Täter. Die Perspektive der Opfer bleibt unterbelichtet.
mehr »