Corona hat den Einsatz Künstlicher Intelligenz im Journalismus „geboostert“. Das bezeugen die vielen Datenexpert*innen, die inzwischen zu festen Begleiter*innen in vielen Redaktionen geworden sind. Der Bayerische Rundfunk (BR) kann dabei auf ein hauseigenes AI + Automation Lab, eine Spezialabteilung für Künstliche Intelligenz (englisch AI für Artificial Intelligence), setzen. Dieses BR-Team ist jetzt für den Deutschen Reporter*innen-Preis nominiert.
Auch beim Bayerischen Rundfunk war die Corona-Berichterstattung ein Schrittmacher für den Einsatz künstlicher Intelligenz und Automation in der täglichen Redaktions-Arbeit. „Wir haben vergangenes Jahr sehr schnell eine Überblickswebseite für Corona-Zahlen und -Trends automatisiert, die die RKI-Daten in einem data-to-text- und in einem data-to-graphics-Prozess automatisiert übernimmt. Die Site schreibt sich selbst weiter und ist immer aktuell“, erklärt Uli Köppen, Leiterin des Lab und gleichzeitig Co-Lead des investigativen Datenjournalismus-Teams BR Data. So haben Redakteur*innen einen Ort, an dem sie tagesaktuell die neuesten Zahlen und Trends sehen. Zudem können sie sich wieder auf ihre Kernaufgaben – Reporting, Analysen, Kommentare – konzentrieren, statt täglich Zahlen „schubsen“ zu müssen.
Für ihre Recherche zu KI-Systemen, die beim Recruiting eingesetzt werden, ist das Team des Lab zusammen mit den Teams BR Recherche und BR Data jetzt für den aktuellen Deutschen Reporter*innen-Preis nominiert. Köppen´s Team hat sich Software-Lösungen angeschaut, die Arbeitgeber*innen versprechen, aus Bewerbungsvideos innerhalb kurzer Zeit Persönlichkeitsprofile der Bewerber*innen extrahieren zu können. In den USA werden solche Systeme bereits eingesetzt – in Deutschland drängen sie jetzt auf den Markt.
„Wir haben gezeigt, wie kleine optische Veränderungen, etwa ein Kopftuch oder eine Brille, diese Auswertungen beeinflussen – was sie eigentlich nicht dürften“, berichtet die Lab-Leiterin und fügt hinzu: „Mit solchen Beiträgen möchten wir auch eine Debatte darüber anregen, wo und wie wir Algorithmen einsetzen wollen – und wo und wie nicht. Hier müssen der Journalismus und speziell die Öffentlich-Rechtlichen näher hinschauen“.
Ihre Kompetenzen als (Daten-)Journalist*innen, Machine Learning-Expert*innen, Produktentwickler*innen und Designer*innen brachten die drei Teams auch bei einem Facebook-Projekt ein. Es trainierte einen Algorithmus darauf, problematischen Content auf Facebook zu erkennen, zum Beispiel SS-Runen oder Hitlerbilder. So konnte gezeigt werden, dass Facebook solchen Content durchaus erkennt, ihn aber oft erst spät entfernt. Ein weiteres Praxisbeispiel ist die Story über Algorithmen, mit denen Lieferando seine Fahrer*innen überwacht.
Recherchen unterstützen und automatisierte Texte
„Ganz generell können AI und Automation Recherchen unterstützen, die mit der Auswertung großer Datenmengen verbunden sind. Und Algorithmen helfen auch bei allen repetitiven Tätigkeiten, bei denen der Workflow – wir sagen hybrid – gestaltet werden kann“, sagt Köppen.
Eine weitere Aufgabe des Teams ist es, Journalist*innen Instrumente der Automatisierung an die Hand zu geben, etwa automatisierte Texte, Grafiken und Newsbriefings. So können dann beispielsweise bereits archivierte Inhalte möglichst automatisiert weiterverarbeitet werden und zusätzlichen Nutzen für die User*innen erzeugen.
Gerade tüftelt das Team an einer Lösung, mit der Audiocontent aus Newssendungen strukturiert und mit Metadaten versehen werden kann, um Nachrichten auch einzeln weiter verarbeiten zu können. „Die Nutzer*innen könnten dann über eine App, eine Website oder eine Voice-Plattform ganz gezielt thematisch suchen und erhalten Content“, erklärt Köppen. Der Prototyp Remix Regional, der im Rahmen eines #BBC Newshack entstanden war, ist eine Umsetzung dieser Idee.
Nicht alles für AI und Automation geeignet
Uli Köppen nennt etwa Kommentare, Analysen, Field Reportings, das Einsammeln von Stimmen. „Aber auch generelle strategische Entscheidungen – wie soll die Website aussehen, welchen Spin gebe ich einer Geschichte – kann man sicher nicht einer KI überlassen. Solche Systeme können höchstens Daten für die Entscheidungsfindung liefern“, ist sie sich sicher.
Neben all den Einsatzmöglichkeiten von KI im Redaktionsalltag beschäftigt sich das Lab auch mit zentralen Grundsatzfragen wie den möglichen Risiken einer AI-Unterstützung. Kritiker*innen weisen in dem Zusammenhang öfter darauf hin, dass Verzerrungen (Bias) in den Trainingsdaten der Algorithmen später – bei Nutzung des Algorithmus – zu Benachteiligungen bestimmter Nutzer*innengruppen führen können. Werden die Daten etwa vorwiegend in einer weißen Mehrheitsgesellschaft gesammelt, dann bildet die Software unter Umständen nicht die Realitäten gesellschaftlicher Minderheiten ab. Vorurteile könnten so durch KI sogar noch verstärkt werden.
„Dieses Thema spielt auch bei uns eine zentrale Rolle. Wir nennen das Algorithmic Accountability Reporting. Das bedeutet, dass wir kritisch zum Einsatz von Algorithmen recherchieren und berichten und auch Fälle darstellen, in denen Algorithmen auf eine zweifelhafte Art eingesetzt werden“, betont Uli Köppen.
Als Beleg nennt sie ein Stück über den SCHUFA-Score. Das zeigt am Beispiel des durch einen Algorithmus erzeugten SCHUFA-Score (der Einstufung der Kreditwürdigkeit einer Person durch die SCHUFA) welche Probleme diesem Menschen aus KI-gestützten Beurteilungen entstehen können. Auf der anderen Seite bewahrt hier der Algorithmus – richterlich übrigens als Betriebsgeheimnis geschützt – Firmen vor Schäden durch Betrug.
So plädiert Uli Köppen dafür, dass Unternehmen, die so etwas zur Bewertungen von Kund*innen oder Arbeitnehmer*innen einsetzen, darüber offen und transparent kommunizieren. Gleichzeitig fordert sie, dass solche scores regulatorisch, journalistisch und gesellschaftlich hinterfragt werden, um Diskriminierung zu vermeiden. „Eine generalisierte Entweder-Oder-Haltung bringt uns da nicht mehr weiter, weil diese Technologien bereits da sind und unser Leben mitbestimmen“ ist sich Uli Köppen sicher.