Freuden und Gefahr durch Einsatz von KI

Foto: 123rf

Corona hat den Einsatz Künstlicher Intelligenz im Journalismus „geboostert“. Das bezeugen die vielen Datenexpert*innen, die inzwischen zu festen Begleiter*innen in vielen Redaktionen geworden sind. Der Bayerische Rundfunk (BR) kann dabei auf ein hauseigenes AI + Automation Lab, eine Spezialabteilung für Künstliche Intelligenz (englisch AI für Artificial Intelligence), setzen. Dieses BR-Team ist jetzt für den Deutschen Reporter*innen-Preis nominiert.

Auch beim Bayerischen Rundfunk war die Corona-Berichterstattung ein Schrittmacher für den Einsatz künstlicher Intelligenz und Automation in der täglichen Redaktions-Arbeit. „Wir haben vergangenes Jahr sehr schnell eine Überblickswebseite für Corona-Zahlen und -Trends automatisiert, die die RKI-Daten in einem data-to-text- und in einem data-to-graphics-Prozess automatisiert übernimmt. Die Site schreibt sich selbst weiter und ist immer aktuell“, erklärt Uli Köppen, Leiterin des Lab und gleichzeitig Co-Lead des investigativen Datenjournalismus-Teams BR Data. So haben Redakteur*innen einen Ort, an dem sie tagesaktuell die neuesten Zahlen und Trends sehen. Zudem können sie sich wieder auf ihre Kernaufgaben – Reporting, Analysen, Kommentare – konzentrieren, statt täglich Zahlen „schubsen“ zu müssen.

Für ihre Recherche zu KI-Systemen, die beim Recruiting eingesetzt werden, ist das Team des Lab zusammen mit den Teams BR Recherche und BR Data jetzt für den aktuellen Deutschen Reporter*innen-Preis nominiert. Köppen´s Team hat sich Software-Lösungen angeschaut, die Arbeitgeber*innen versprechen, aus Bewerbungsvideos innerhalb kurzer Zeit Persönlichkeitsprofile der Bewerber*innen extrahieren zu können. In den USA werden solche Systeme bereits eingesetzt – in Deutschland drängen sie jetzt auf den Markt.

„Wir haben gezeigt, wie kleine optische Veränderungen, etwa ein Kopftuch oder eine Brille, diese Auswertungen beeinflussen – was sie eigentlich nicht dürften“, berichtet die Lab-Leiterin und fügt hinzu: „Mit solchen Beiträgen möchten wir auch eine Debatte darüber anregen, wo und wie wir Algorithmen einsetzen wollen – und wo und wie nicht. Hier müssen der Journalismus und speziell die Öffentlich-Rechtlichen näher hinschauen“.

Ihre Kompetenzen als (Daten-)Journalist*innen, Machine Learning-Expert*innen, Produktentwickler*innen und Designer*innen brachten die drei Teams auch bei einem Facebook-Projekt ein. Es trainierte einen Algorithmus darauf, problematischen Content auf Facebook zu erkennen, zum Beispiel SS-Runen oder Hitlerbilder. So konnte gezeigt werden, dass Facebook solchen Content durchaus erkennt, ihn aber oft erst spät entfernt. Ein weiteres Praxisbeispiel ist die Story über Algorithmen, mit denen Lieferando seine Fahrer*innen überwacht.

Recherchen unterstützen und automatisierte Texte

„Ganz generell können AI und Automation Recherchen unterstützen, die mit der Auswertung großer Datenmengen verbunden sind. Und Algorithmen helfen auch bei allen repetitiven Tätigkeiten, bei denen der Workflow – wir sagen hybrid – gestaltet werden kann“, sagt Köppen.

Eine weitere Aufgabe des Teams ist es, Journalist*innen Instrumente der Automatisierung an die Hand zu geben, etwa automatisierte Texte, Grafiken und Newsbriefings. So können dann beispielsweise bereits archivierte Inhalte möglichst automatisiert weiterverarbeitet werden und zusätzlichen Nutzen für die User*innen erzeugen.

Gerade tüftelt das Team an einer Lösung, mit der Audiocontent aus Newssendungen strukturiert und mit Metadaten versehen werden kann, um Nachrichten auch einzeln weiter verarbeiten zu können. „Die Nutzer*innen könnten dann über eine App, eine Website oder eine Voice-Plattform ganz gezielt thematisch suchen und erhalten Content“, erklärt Köppen. Der Prototyp Remix Regional, der im Rahmen eines #BBC Newshack entstanden war, ist eine Umsetzung dieser Idee.

Nicht alles für AI und Automation geeignet

Uli Köppen nennt etwa Kommentare, Analysen, Field Reportings, das Einsammeln von Stimmen. „Aber auch generelle strategische Entscheidungen – wie soll die Website aussehen, welchen Spin gebe ich einer Geschichte – kann man sicher nicht einer KI überlassen. Solche Systeme können höchstens Daten für die Entscheidungsfindung liefern“, ist sie sich sicher.

Neben all den Einsatzmöglichkeiten von KI im Redaktionsalltag beschäftigt sich das Lab auch mit zentralen Grundsatzfragen wie den möglichen Risiken einer AI-Unterstützung. Kritiker*innen weisen in dem Zusammenhang öfter darauf hin, dass Verzerrungen (Bias) in den Trainingsdaten der Algorithmen später – bei Nutzung des Algorithmus – zu Benachteiligungen bestimmter Nutzer*innengruppen führen können. Werden die Daten etwa vorwiegend in einer weißen Mehrheitsgesellschaft gesammelt, dann bildet die Software unter Umständen nicht die Realitäten gesellschaftlicher Minderheiten ab. Vorurteile könnten so durch KI sogar noch verstärkt werden.

„Dieses Thema spielt auch bei uns eine zentrale Rolle. Wir nennen das Algorithmic Accountability Reporting. Das bedeutet, dass wir kritisch zum Einsatz von Algorithmen recherchieren und berichten und auch Fälle darstellen, in denen Algorithmen auf eine zweifelhafte Art eingesetzt werden“, betont Uli Köppen.

Als Beleg nennt sie ein Stück über den SCHUFA-Score. Das zeigt am Beispiel des durch einen Algorithmus erzeugten SCHUFA-Score (der Einstufung der Kreditwürdigkeit einer Person durch die SCHUFA) welche Probleme diesem Menschen aus KI-gestützten Beurteilungen entstehen können. Auf der anderen Seite bewahrt hier der Algorithmus – richterlich übrigens als Betriebsgeheimnis geschützt – Firmen vor Schäden durch Betrug.
So plädiert Uli Köppen dafür, dass Unternehmen, die so etwas zur Bewertungen von Kund*innen oder Arbeitnehmer*innen einsetzen, darüber offen und transparent kommunizieren. Gleichzeitig fordert sie, dass solche scores regulatorisch, journalistisch und gesellschaftlich hinterfragt werden, um Diskriminierung zu vermeiden. „Eine generalisierte Entweder-Oder-Haltung bringt uns da nicht mehr weiter, weil diese Technologien bereits da sind und unser Leben mitbestimmen“ ist sich Uli Köppen sicher.

 

 

 

 

 

 

nach oben

Weitere aktuelle Beiträge

Reform oder Abrissbirne im Hörfunk

Die Hängepartie um Finanzierung und Reform des öffentlich-rechtlichen Rundfunks (ÖRR) geht weiter. Nach wie vor sträuben sich ein halbes Dutzend Ministerpräsidenten, der Empfehlung der Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (KEF) für eine Beitragserhöhung um 58 Cent auf 18,94 Euro zu folgen. Bis Oktober wollen die Länder einen Reformstaatsvertrag vorlegen, um künftig über Sparmaßnahmen Beitragsstabilität zu erreichen. Einzelne ARD-Sender streichen bereits jetzt schon ihre Hörfunkprogramme zusammen.
mehr »

Filmschaffende kriegen künftig mehr

In der achten Tarifverhandlungsrunde für die rund 25.000 Filmschaffenden haben sich die Vereinte Dienstleistungsgewerkschaft (ver.di), die Schauspielgewerkschaft BFFS und die Produktionsallianz auf Eckpunkte einer vorläufigen Tarifeinigung verständigt. Doch nicht alle Verhandlungsthemen konnten geklärt werden. Die Frage nach der Regelung von Künstlicher Intelligenz (KI) im Film wurde verschoben.
mehr »

Wie ethisch kann KI berichten?

Ein ethischer Kompass ist angesichts zunehmender Desinformation immer wichtiger – für Journalist*innen, aber auch Mediennutzende. Positivbeispiele einer wertebewussten Berichterstattung wurden jüngst zum 20. Mal mit dem Medienethik Award, kurz META, ausgezeichnet. Eine Jury aus Studierenden der Stuttgarter Hochschule der Medien HdM vergab den Preis diesmal für zwei Beiträge zum Thema „Roboter“: Ein Radiostück zu Maschinen und Empathie und einen Fernsehfilm zu KI im Krieg.
mehr »

VR-Formate im Dokumentarfilm

Mit klassischen Dokumentationen ein junges Publikum zu erreichen, das ist nicht einfach. Mit welchen Ideen es aber dennoch gelingen kann, das stand auf der Sunny Side of the Doc in La Rochelle im Fokus. Beim internationalen Treffen der Dokumentarfilmbranche ging es diesmal auch um neue Erzählformen des Genres wie Virtual Reality (VR).
mehr »