Freuden und Gefahr durch Einsatz von KI

Foto: 123rf

Corona hat den Einsatz Künstlicher Intelligenz im Journalismus „geboostert“. Das bezeugen die vielen Datenexpert*innen, die inzwischen zu festen Begleiter*innen in vielen Redaktionen geworden sind. Der Bayerische Rundfunk (BR) kann dabei auf ein hauseigenes AI + Automation Lab, eine Spezialabteilung für Künstliche Intelligenz (englisch AI für Artificial Intelligence), setzen. Dieses BR-Team ist jetzt für den Deutschen Reporter*innen-Preis nominiert.

Auch beim Bayerischen Rundfunk war die Corona-Berichterstattung ein Schrittmacher für den Einsatz künstlicher Intelligenz und Automation in der täglichen Redaktions-Arbeit. „Wir haben vergangenes Jahr sehr schnell eine Überblickswebseite für Corona-Zahlen und -Trends automatisiert, die die RKI-Daten in einem data-to-text- und in einem data-to-graphics-Prozess automatisiert übernimmt. Die Site schreibt sich selbst weiter und ist immer aktuell“, erklärt Uli Köppen, Leiterin des Lab und gleichzeitig Co-Lead des investigativen Datenjournalismus-Teams BR Data. So haben Redakteur*innen einen Ort, an dem sie tagesaktuell die neuesten Zahlen und Trends sehen. Zudem können sie sich wieder auf ihre Kernaufgaben – Reporting, Analysen, Kommentare – konzentrieren, statt täglich Zahlen „schubsen“ zu müssen.

Für ihre Recherche zu KI-Systemen, die beim Recruiting eingesetzt werden, ist das Team des Lab zusammen mit den Teams BR Recherche und BR Data jetzt für den aktuellen Deutschen Reporter*innen-Preis nominiert. Köppen´s Team hat sich Software-Lösungen angeschaut, die Arbeitgeber*innen versprechen, aus Bewerbungsvideos innerhalb kurzer Zeit Persönlichkeitsprofile der Bewerber*innen extrahieren zu können. In den USA werden solche Systeme bereits eingesetzt – in Deutschland drängen sie jetzt auf den Markt.

„Wir haben gezeigt, wie kleine optische Veränderungen, etwa ein Kopftuch oder eine Brille, diese Auswertungen beeinflussen – was sie eigentlich nicht dürften“, berichtet die Lab-Leiterin und fügt hinzu: „Mit solchen Beiträgen möchten wir auch eine Debatte darüber anregen, wo und wie wir Algorithmen einsetzen wollen – und wo und wie nicht. Hier müssen der Journalismus und speziell die Öffentlich-Rechtlichen näher hinschauen“.

Ihre Kompetenzen als (Daten-)Journalist*innen, Machine Learning-Expert*innen, Produktentwickler*innen und Designer*innen brachten die drei Teams auch bei einem Facebook-Projekt ein. Es trainierte einen Algorithmus darauf, problematischen Content auf Facebook zu erkennen, zum Beispiel SS-Runen oder Hitlerbilder. So konnte gezeigt werden, dass Facebook solchen Content durchaus erkennt, ihn aber oft erst spät entfernt. Ein weiteres Praxisbeispiel ist die Story über Algorithmen, mit denen Lieferando seine Fahrer*innen überwacht.

Recherchen unterstützen und automatisierte Texte

„Ganz generell können AI und Automation Recherchen unterstützen, die mit der Auswertung großer Datenmengen verbunden sind. Und Algorithmen helfen auch bei allen repetitiven Tätigkeiten, bei denen der Workflow – wir sagen hybrid – gestaltet werden kann“, sagt Köppen.

Eine weitere Aufgabe des Teams ist es, Journalist*innen Instrumente der Automatisierung an die Hand zu geben, etwa automatisierte Texte, Grafiken und Newsbriefings. So können dann beispielsweise bereits archivierte Inhalte möglichst automatisiert weiterverarbeitet werden und zusätzlichen Nutzen für die User*innen erzeugen.

Gerade tüftelt das Team an einer Lösung, mit der Audiocontent aus Newssendungen strukturiert und mit Metadaten versehen werden kann, um Nachrichten auch einzeln weiter verarbeiten zu können. „Die Nutzer*innen könnten dann über eine App, eine Website oder eine Voice-Plattform ganz gezielt thematisch suchen und erhalten Content“, erklärt Köppen. Der Prototyp Remix Regional, der im Rahmen eines #BBC Newshack entstanden war, ist eine Umsetzung dieser Idee.

Nicht alles für AI und Automation geeignet

Uli Köppen nennt etwa Kommentare, Analysen, Field Reportings, das Einsammeln von Stimmen. „Aber auch generelle strategische Entscheidungen – wie soll die Website aussehen, welchen Spin gebe ich einer Geschichte – kann man sicher nicht einer KI überlassen. Solche Systeme können höchstens Daten für die Entscheidungsfindung liefern“, ist sie sich sicher.

Neben all den Einsatzmöglichkeiten von KI im Redaktionsalltag beschäftigt sich das Lab auch mit zentralen Grundsatzfragen wie den möglichen Risiken einer AI-Unterstützung. Kritiker*innen weisen in dem Zusammenhang öfter darauf hin, dass Verzerrungen (Bias) in den Trainingsdaten der Algorithmen später – bei Nutzung des Algorithmus – zu Benachteiligungen bestimmter Nutzer*innengruppen führen können. Werden die Daten etwa vorwiegend in einer weißen Mehrheitsgesellschaft gesammelt, dann bildet die Software unter Umständen nicht die Realitäten gesellschaftlicher Minderheiten ab. Vorurteile könnten so durch KI sogar noch verstärkt werden.

„Dieses Thema spielt auch bei uns eine zentrale Rolle. Wir nennen das Algorithmic Accountability Reporting. Das bedeutet, dass wir kritisch zum Einsatz von Algorithmen recherchieren und berichten und auch Fälle darstellen, in denen Algorithmen auf eine zweifelhafte Art eingesetzt werden“, betont Uli Köppen.

Als Beleg nennt sie ein Stück über den SCHUFA-Score. Das zeigt am Beispiel des durch einen Algorithmus erzeugten SCHUFA-Score (der Einstufung der Kreditwürdigkeit einer Person durch die SCHUFA) welche Probleme diesem Menschen aus KI-gestützten Beurteilungen entstehen können. Auf der anderen Seite bewahrt hier der Algorithmus – richterlich übrigens als Betriebsgeheimnis geschützt – Firmen vor Schäden durch Betrug.
So plädiert Uli Köppen dafür, dass Unternehmen, die so etwas zur Bewertungen von Kund*innen oder Arbeitnehmer*innen einsetzen, darüber offen und transparent kommunizieren. Gleichzeitig fordert sie, dass solche scores regulatorisch, journalistisch und gesellschaftlich hinterfragt werden, um Diskriminierung zu vermeiden. „Eine generalisierte Entweder-Oder-Haltung bringt uns da nicht mehr weiter, weil diese Technologien bereits da sind und unser Leben mitbestimmen“ ist sich Uli Köppen sicher.

 

 

 

 

 

 

nach oben

Weitere aktuelle Beiträge

Kodex für mehr Respekt beim Film

Auf Initiative der Vereinte Dienstleistungsgewerkschaft ver.di, des Bundesverbands Schauspiel (BFFS) und Allianz Deutscher Produzentinnen und Produzenten – Film, Fernsehen und Audiovisuelle Medien hat eine Gruppe aus Branchenvertreter*innen von Verbänden, TV-Sendern, Streamingdiensten, Förderern und unter Beteiligung der BKM, der Themis Vertrauensstelle e. V. und der BG ETEM nach über einem Jahr gemeinsamer Beratung heute den Respect Code Film (RCF) beschlossen.
mehr »

Mit Recht und Technik gegen Fake News

Als „vielleicht größte Gefahr“ in der digitalen Welt sieht die Landesanstalt für Medien NRW (LFM) die Verbreitung von Desinformationen. Insbesondere gilt das für die Demokratische Willensbildung. Daher wird die Aufsichtsbehörde ihren Scherpunkt im kommenden Jahr genau auf dieses Thema richten. Aber wie kann man der Flut an Fake News und Deep Fakes Herr werden?
mehr »

Buchtipp: Missbrauch, Macht & Medien

Zwei Bücher, ein Thema: Juliane Löffler und Thomas Gottschalk beschreiben aus völlig unterschiedlichen Perspektiven, wie sich Gesellschaft und Medien in den letzten Jahren unter anderem durch den Einfluss der MeToo-Bewegung verändert haben. Während Löffler den unverhohlenen männlichen Machtmissbrauch akribisch recherchierte, sorgt sich Gottschalk um seine Privilegien.
mehr »

News-Junkie versus Nachrichtenvermeider

Eine Sonderausstellung im Museum für Kommunikation Berlin gibt Einblicke in die Geschichte der Nachrichten und unser Verhältnis dazu. Nie war es leichter, sich über das Weltgeschehen zu informieren als heute. Nie gab es mehr Medien und Formate, über die wir jederzeit und überall Nachrichten abrufen können. Doch wie können wir uns in diesem Dschungel zurechtfinden? Wie können wir gute Nachrichten produzieren?
mehr »