Der Kollege Roboter: schnell und fehlbar

Wer spricht und schreibt? Menschen wünschen sich Klarheit bei Künstlicher Intelligenz Foto: 123rf

Nach gut zwei Jahren Arbeit hat die Enquete-Kommission Künstliche Intelligenz (KI) des Bundestags am 3. November 2020 ihren Abschlussbericht veröffentlicht. Zur technologischen Entwicklung der Künstlichen Intelligenz stellte sie fest, dass diese mit einem Wertewandel einhergehe und „nicht per se schlecht“ sei. Sie bedürfe allerdings einer demokratischen Gestaltung „auf der Basis einer Übereinkunft über gutes und gerechtes Leben für heute und für zukünftige Generationen“. So heißt es in der Zusammenfassung des Berichts der verschiedenen Projektgruppen.

Im Jahr 2014 veröffentlichte die „Los Angeles Times“ drei Minuten nach einem Erdbeben in Kalifornien einen Bericht über eben dieses Ereignis. Dies war möglich, weil ein Mitarbeiter einen Bot (einen Softwareroboter) namens Quakebot entwickelt hatte, der automatisch Artikel auf der Grundlage von Daten schrieb, die zuvor vom US Geological Survey generiert worden waren. Heute schreiben Künstliche Intelligenzen (KIs) Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden. Sie betreffen vor allem die Berichterstattung über Wetter, Sport oder Verkehr. Es sind Bereiche, für die zahlreiche strukturierte Daten vorliegen. Denn aus diesen Datenmengen kann die KI einfach Textbausteine generieren.

Bei Bloomberg sind mittlerweile ein Drittel der Nachrichten und Texte von Programmen mit KI erstellt. Die Nachrichtenagentur AP publiziert computergenerierte Finanzberichte und Info-Grafiken. Die Gemeinschaftsredaktion von „Stuttgarter Zeitung“ und „Stuttgarter Nachrichten“ hat einen Feinstaubradar entwickelt, der auf Grundlage von Messwerten automatisiert Feinstaubberichte schreibt. Und bei der Schweizer Nachrichtenagentur Keystone-SDA kommt ein Schreibroboter zum Einsatz, der unter anderem Abstimmungsdaten des Bundesamtes für Statistik (BFS) analysiert und daraus automatisierte Meldungen generiert.

Transparenz und ethische Bewertung

Neben der Frage, welche Folgen der Einsatz von KI für die Arbeitsplatzsicherheit von Journalistinnen und Journalisten hat, stehen aber auch noch die Transparenz und die ethische Bewertung der Technologie zur Debatte. Denn es geht schließlich nicht nur ums Wetter. In jüngster Vergangenheit haben vor allem soziale Medien verstärkt zur gesellschaftlichen Polarisierung und Wahlbeeinflussung beigetragen. Die verwendeten Algorithmen entscheiden nämlich darüber, welche Informationen Leser*innen vorzugsweise zu sehen bekommen, über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken.

Die Projektgruppe „KI und Medien“ der Enquete-Kommission legte eine Bestandsaufnahme vor, in der es sowohl um die Produktion als auch um die Distribution von Anwendungen und Inhalten geht. Darin heißt es: „KI-gesteuerte Empfehlungs- und Filtersysteme bieten neue Möglichkeiten für Bürgerinnen und Bürger, sich an politischen Diskussionen zu beteiligen, bergen jedoch auch Risiken hinsichtlich stark personalisierter Informationsräume, die vornehmlich auf das gezielte Platzieren verhaltensbasierter Werbung ausgerichtet sind.“ Politik müsse im Blick haben, unabhängigen Journalismus und eine pluralistische Öffentlichkeit zu gewährleisten und zu fördern und die Kompetenzen von Bürgerinnen und Bürgern im Umgang mit digitalen Nachrichten dauerhaft und permanent zu stärken.

Bislang kein Algorithmen-TÜV

Um die Medienvielfalt zu erhalten, schlägt die Projektgruppe eine entsprechende Anpassung des Kartellrechts und gegebenenfalls die Einführung einer Digitalsteuer vor. Wie diese aussehen soll, wird nicht ausgeführt. Die SPD hatte zwar einen Algorithmen-TÜV gefordert, damit niemand durch softwaregestützte Entscheidungen diskriminiert wird, doch darauf verständigten sich die Mitglieder der Kommission nicht. Konkrete Maßnahmen konnte keine der Projektgruppen entwickeln. Und so bleibt der Abschlussbericht mit rund 500 Seiten zwar sehr umfassend, aber eher deskriptiv.

Anwendungen immer interessengeleitet

Etwas griffiger formulierte es im März dieses Jahres bereits der ver.di-Bundesvorstand: „Es darf keine KI-Anwendungen geben, die Menschen schaden, die gegen Menschen-und Grundrechte verstoßen. Dabei sollte nicht erst ein Schaden nachgewiesen werden müssen, sondern auch bei einem zu hohen Risiko, wenn ein Schaden nicht ausgeschlossen werden kann, sind KI-Systeme nicht einzusetzen.“ Die „Ethischen Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ sollen als Grundlage für die Diskussion mit Entwickler*innen, Programmierer*innen und Entscheider*innen dienen. Damit wird deutlich, dass es weniger um die Technik an sich, als vielmehr um die damit verbundenen Ziele geht. „Ein Algorithmus ist nicht an sich objektiv. Weil er immer in jemandes Interesse programmiert, beauftragt und eingesetzt wird,“ sagt Medienethiker Alexander Filipović. Er ist sachverständiges Mitglied der Kommission und warnt: „Wir müssen aufpassen, dass wir keine totalitären algorithmischen Systeme bekommen, die die öffentliche Kommunikation auf der Basis irgendeiner Vorstellung von gut und richtig verändern.“ Denn selbst Schreibprogramme sind immer nur so präzise, so ethisch und so transparent, wie ihre Programmierung und ihre Datengrundlage.

Am 21. Juni 2017 meldete die „Los Angeles Times“ ein Erdbeben vor Santa Barbara im Pazifik, das allerdings bereits im Jahr 1925 stattgefunden hatte. Wissenschaftler des California Institute of Technology hatten den Fehlalarm ausgelöst, als sie historische Erdbebendaten aktualisieren wollten. Der Quakebot meldete daraufhin das Erdbeben. KI eben. Schnell, aber fehlbar.

 

nach oben

Weitere aktuelle Beiträge

KI: Menschen wollen Regeln

Rund drei Viertel der Menschen in Deutschland sorgen sich einer Umfrage zufolge um die Glaubwürdigkeit der Medien, wenn Künstliche Intelligenz (KI) im Spiel ist. 90 Prozent der Befragten fordern dazu klare Regeln und Kennzeichnungen. Dies ergab eine am Mittwoch in Berlin veröffentlichte Studie der Medienanstalten. Für die repräsentative Erhebung "Transparenz-Check. Wahrnehmung von KI-Journalismus" wurden online 3.013 Internetnutzer*innen befragt.
mehr »

Lokaljournalismus: Die Wüste droht

Noch sei es nicht so weit, aber von einer "Steppe" könne man durchaus schon sprechen, sagt Christian Wellbrock von der Hamburg Media School. Wellbrock ist Leiter von "Wüstenradar", einer Studie, die zum ersten Mal die bundesweite Verbreitung und zahlenmäßige Entwicklung von Lokalzeitungen in den letzten 30 Jahren unter die Lupe genommen hat. Sie erhebt, wie stark der Rückgang lokaler Medien inzwischen tatsächlich ist und warnt: In etlichen Regionen droht tatsächlich die Verbreitung von "Nachrichtenwüsten".
mehr »

Altersdiskriminierung beim WDR?

Der WDR serviert freie Mitarbeiter*innen ab, die im Rentenalter für den Sender arbeiten wollen. Damit tut er genau das Gegenteil von dem, was in der öffentlichen Diskussion derzeit geraten wird. Während Angestellte sich also über Jahre hinweg auf einen Termin für ihren Ruhestand vorbereiten konnten, wird langjährigen freien Mitarbeiter*innen nun mit kurzer Frist mitgeteilt, wann für sie angeblich Schluss sein soll. Altersdiskriminierung will man beim WDR aber nicht erkennen – für den Sender gehe es vielmehr darum, jüngeren Mitarbeitenden nicht den Einstieg zu blockieren.
mehr »

Buchtipp: Das Prinzip Trotzdem

Wie könnte ein selbstbewusster Journalismus aussehen, der sich gegen die aktuelle Medienkrise zu behaupten weiß und sich auf seine zentrale Rolle für funktionierende demokratischen Gesellschaften besinnt? Roger de Weck war Zeit-Chefredakteur, Generaldirektor des Schweizer Radios und Fernsehens sowie Mitglied des Zukunftsrats für Reformen des Öffentlich-Rechtlichen Rundfunks in Deutschland. In seinem jüngst erschienenen Essay „Das Prinzip Trotzdem. Warum wir den Journalismus vor den Medien retten müssen“ beschäftigt er sich mit genau diesen Fragen.
mehr »