Freuden und Gefahr durch Einsatz von KI

Wer spricht und schreibt? Menschen wünschen sich Klarheit bei Künstlicher Intelligenz Foto: 123rf

Corona hat den Einsatz Künstlicher Intelligenz im Journalismus „geboostert“. Das bezeugen die vielen Datenexpert*innen, die inzwischen zu festen Begleiter*innen in vielen Redaktionen geworden sind. Der Bayerische Rundfunk (BR) kann dabei auf ein hauseigenes AI + Automation Lab, eine Spezialabteilung für Künstliche Intelligenz (englisch AI für Artificial Intelligence), setzen. Dieses BR-Team ist jetzt für den Deutschen Reporter*innen-Preis nominiert.

Auch beim Bayerischen Rundfunk war die Corona-Berichterstattung ein Schrittmacher für den Einsatz künstlicher Intelligenz und Automation in der täglichen Redaktions-Arbeit. „Wir haben vergangenes Jahr sehr schnell eine Überblickswebseite für Corona-Zahlen und -Trends automatisiert, die die RKI-Daten in einem data-to-text- und in einem data-to-graphics-Prozess automatisiert übernimmt. Die Site schreibt sich selbst weiter und ist immer aktuell“, erklärt Uli Köppen, Leiterin des Lab und gleichzeitig Co-Lead des investigativen Datenjournalismus-Teams BR Data. So haben Redakteur*innen einen Ort, an dem sie tagesaktuell die neuesten Zahlen und Trends sehen. Zudem können sie sich wieder auf ihre Kernaufgaben – Reporting, Analysen, Kommentare – konzentrieren, statt täglich Zahlen „schubsen“ zu müssen.

Für ihre Recherche zu KI-Systemen, die beim Recruiting eingesetzt werden, ist das Team des Lab zusammen mit den Teams BR Recherche und BR Data jetzt für den aktuellen Deutschen Reporter*innen-Preis nominiert. Köppen´s Team hat sich Software-Lösungen angeschaut, die Arbeitgeber*innen versprechen, aus Bewerbungsvideos innerhalb kurzer Zeit Persönlichkeitsprofile der Bewerber*innen extrahieren zu können. In den USA werden solche Systeme bereits eingesetzt – in Deutschland drängen sie jetzt auf den Markt.

„Wir haben gezeigt, wie kleine optische Veränderungen, etwa ein Kopftuch oder eine Brille, diese Auswertungen beeinflussen – was sie eigentlich nicht dürften“, berichtet die Lab-Leiterin und fügt hinzu: „Mit solchen Beiträgen möchten wir auch eine Debatte darüber anregen, wo und wie wir Algorithmen einsetzen wollen – und wo und wie nicht. Hier müssen der Journalismus und speziell die Öffentlich-Rechtlichen näher hinschauen“.

Ihre Kompetenzen als (Daten-)Journalist*innen, Machine Learning-Expert*innen, Produktentwickler*innen und Designer*innen brachten die drei Teams auch bei einem Facebook-Projekt ein. Es trainierte einen Algorithmus darauf, problematischen Content auf Facebook zu erkennen, zum Beispiel SS-Runen oder Hitlerbilder. So konnte gezeigt werden, dass Facebook solchen Content durchaus erkennt, ihn aber oft erst spät entfernt. Ein weiteres Praxisbeispiel ist die Story über Algorithmen, mit denen Lieferando seine Fahrer*innen überwacht.

Recherchen unterstützen und automatisierte Texte

„Ganz generell können AI und Automation Recherchen unterstützen, die mit der Auswertung großer Datenmengen verbunden sind. Und Algorithmen helfen auch bei allen repetitiven Tätigkeiten, bei denen der Workflow – wir sagen hybrid – gestaltet werden kann“, sagt Köppen.

Eine weitere Aufgabe des Teams ist es, Journalist*innen Instrumente der Automatisierung an die Hand zu geben, etwa automatisierte Texte, Grafiken und Newsbriefings. So können dann beispielsweise bereits archivierte Inhalte möglichst automatisiert weiterverarbeitet werden und zusätzlichen Nutzen für die User*innen erzeugen.

Gerade tüftelt das Team an einer Lösung, mit der Audiocontent aus Newssendungen strukturiert und mit Metadaten versehen werden kann, um Nachrichten auch einzeln weiter verarbeiten zu können. „Die Nutzer*innen könnten dann über eine App, eine Website oder eine Voice-Plattform ganz gezielt thematisch suchen und erhalten Content“, erklärt Köppen. Der Prototyp Remix Regional, der im Rahmen eines #BBC Newshack entstanden war, ist eine Umsetzung dieser Idee.

Nicht alles für AI und Automation geeignet

Uli Köppen nennt etwa Kommentare, Analysen, Field Reportings, das Einsammeln von Stimmen. „Aber auch generelle strategische Entscheidungen – wie soll die Website aussehen, welchen Spin gebe ich einer Geschichte – kann man sicher nicht einer KI überlassen. Solche Systeme können höchstens Daten für die Entscheidungsfindung liefern“, ist sie sich sicher.

Neben all den Einsatzmöglichkeiten von KI im Redaktionsalltag beschäftigt sich das Lab auch mit zentralen Grundsatzfragen wie den möglichen Risiken einer AI-Unterstützung. Kritiker*innen weisen in dem Zusammenhang öfter darauf hin, dass Verzerrungen (Bias) in den Trainingsdaten der Algorithmen später – bei Nutzung des Algorithmus – zu Benachteiligungen bestimmter Nutzer*innengruppen führen können. Werden die Daten etwa vorwiegend in einer weißen Mehrheitsgesellschaft gesammelt, dann bildet die Software unter Umständen nicht die Realitäten gesellschaftlicher Minderheiten ab. Vorurteile könnten so durch KI sogar noch verstärkt werden.

„Dieses Thema spielt auch bei uns eine zentrale Rolle. Wir nennen das Algorithmic Accountability Reporting. Das bedeutet, dass wir kritisch zum Einsatz von Algorithmen recherchieren und berichten und auch Fälle darstellen, in denen Algorithmen auf eine zweifelhafte Art eingesetzt werden“, betont Uli Köppen.

Als Beleg nennt sie ein Stück über den SCHUFA-Score. Das zeigt am Beispiel des durch einen Algorithmus erzeugten SCHUFA-Score (der Einstufung der Kreditwürdigkeit einer Person durch die SCHUFA) welche Probleme diesem Menschen aus KI-gestützten Beurteilungen entstehen können. Auf der anderen Seite bewahrt hier der Algorithmus – richterlich übrigens als Betriebsgeheimnis geschützt – Firmen vor Schäden durch Betrug.
So plädiert Uli Köppen dafür, dass Unternehmen, die so etwas zur Bewertungen von Kund*innen oder Arbeitnehmer*innen einsetzen, darüber offen und transparent kommunizieren. Gleichzeitig fordert sie, dass solche scores regulatorisch, journalistisch und gesellschaftlich hinterfragt werden, um Diskriminierung zu vermeiden. „Eine generalisierte Entweder-Oder-Haltung bringt uns da nicht mehr weiter, weil diese Technologien bereits da sind und unser Leben mitbestimmen“ ist sich Uli Köppen sicher.

 

 

 

 

 

 

nach oben

Weitere aktuelle Beiträge

Filmtipp: Mädchen können kein Fußball spielen

Der sehenswerte Dokumentarfilm von Grimme-Preisträger Torsten Körner („Schwarze Adler“) ist eine Hommage an die Pionierinnen des deutschen Frauenfußballs. Körner hat bereits ein ausgezeichnetes Buch über das Thema geschrieben („Wir waren Heldinnen“). Der Film erzählt die Geschichte mit Hilfe von Zeitzeuginnen und vielen zeitgenössischen TV- und Wochenschau-Ausschnitten von den Anfängen in den 50ern bis zur siegreichen Heim-EM 1989.
mehr »

ARD schützt ihre Inhalte vor KI

Die ARD hat ihren Umgang mit Anbietern von KI geändert. Seit Ende Mai dürfen Unternehmen wie etwa Open AI, Perplexity oder Google (Gemini) Inhalte aus den Online-Angeboten der ARD nicht mehr nutzen, um damit ihre KI-Systeme zu trainieren. Das bestätigte der Senderverbund auf Nachfrage. Die ARD hat nun in ihre Webseiten einen sogenannten maschinenlesbaren Nutzungsvorbehalt technisch eingebaut. Damit wird KI-Crawlern signalisiert, dass sie die Inhalte dieser Angebote nicht verwenden dürfen.
mehr »

Internet: Journalismus unter Druck

Angesichts der Vielzahl von Beiträgen zum 30-jährigen Jubiläum des Internets arbeitet der Journalist Jann-Luca Künßberg in einem Gastbeitrag für Netzpolitik.org heraus, wie umfangreich die Online-Welt Journalismus selbst verändert hat. Enorm schnell, so Künßberg, habe der Geschäftsgedanke die Vision eines digitalen Versammlungsorts beiseitegeschoben.
mehr »

Zeitschriftenverleger wittern Gefahr

Die deutschen Zeitschriftenverleger sehen die Demokratie durch die Zusammenballung von ökonomischer, medialer und zunehmend politischer Macht in der Hand weniger internationaler Technologieplattformen in Gefahr. Das erklärte Philipp Welte, Vorstandsvorsitzender des Medienverbands der Freien Presse (MVFP) zur Eröffnung des diesjährigen Medienforums in Berlin.
mehr »