Nach gut zwei Jahren Arbeit hat die Enquete-Kommission Künstliche Intelligenz (KI) des Bundestags am 3. November 2020 ihren Abschlussbericht veröffentlicht. Zur technologischen Entwicklung der Künstlichen Intelligenz stellte sie fest, dass diese mit einem Wertewandel einhergehe und „nicht per se schlecht“ sei. Sie bedürfe allerdings einer demokratischen Gestaltung „auf der Basis einer Übereinkunft über gutes und gerechtes Leben für heute und für zukünftige Generationen“. So heißt es in der Zusammenfassung des Berichts der verschiedenen Projektgruppen.
Im Jahr 2014 veröffentlichte die „Los Angeles Times“ drei Minuten nach einem Erdbeben in Kalifornien einen Bericht über eben dieses Ereignis. Dies war möglich, weil ein Mitarbeiter einen Bot (einen Softwareroboter) namens Quakebot entwickelt hatte, der automatisch Artikel auf der Grundlage von Daten schrieb, die zuvor vom US Geological Survey generiert worden waren. Heute schreiben Künstliche Intelligenzen (KIs) Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden. Sie betreffen vor allem die Berichterstattung über Wetter, Sport oder Verkehr. Es sind Bereiche, für die zahlreiche strukturierte Daten vorliegen. Denn aus diesen Datenmengen kann die KI einfach Textbausteine generieren.
Bei Bloomberg sind mittlerweile ein Drittel der Nachrichten und Texte von Programmen mit KI erstellt. Die Nachrichtenagentur AP publiziert computergenerierte Finanzberichte und Info-Grafiken. Die Gemeinschaftsredaktion von „Stuttgarter Zeitung“ und „Stuttgarter Nachrichten“ hat einen Feinstaubradar entwickelt, der auf Grundlage von Messwerten automatisiert Feinstaubberichte schreibt. Und bei der Schweizer Nachrichtenagentur Keystone-SDA kommt ein Schreibroboter zum Einsatz, der unter anderem Abstimmungsdaten des Bundesamtes für Statistik (BFS) analysiert und daraus automatisierte Meldungen generiert.
Transparenz und ethische Bewertung
Neben der Frage, welche Folgen der Einsatz von KI für die Arbeitsplatzsicherheit von Journalistinnen und Journalisten hat, stehen aber auch noch die Transparenz und die ethische Bewertung der Technologie zur Debatte. Denn es geht schließlich nicht nur ums Wetter. In jüngster Vergangenheit haben vor allem soziale Medien verstärkt zur gesellschaftlichen Polarisierung und Wahlbeeinflussung beigetragen. Die verwendeten Algorithmen entscheiden nämlich darüber, welche Informationen Leser*innen vorzugsweise zu sehen bekommen, über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken.
Die Projektgruppe „KI und Medien“ der Enquete-Kommission legte eine Bestandsaufnahme vor, in der es sowohl um die Produktion als auch um die Distribution von Anwendungen und Inhalten geht. Darin heißt es: „KI-gesteuerte Empfehlungs- und Filtersysteme bieten neue Möglichkeiten für Bürgerinnen und Bürger, sich an politischen Diskussionen zu beteiligen, bergen jedoch auch Risiken hinsichtlich stark personalisierter Informationsräume, die vornehmlich auf das gezielte Platzieren verhaltensbasierter Werbung ausgerichtet sind.“ Politik müsse im Blick haben, unabhängigen Journalismus und eine pluralistische Öffentlichkeit zu gewährleisten und zu fördern und die Kompetenzen von Bürgerinnen und Bürgern im Umgang mit digitalen Nachrichten dauerhaft und permanent zu stärken.
Bislang kein Algorithmen-TÜV
Um die Medienvielfalt zu erhalten, schlägt die Projektgruppe eine entsprechende Anpassung des Kartellrechts und gegebenenfalls die Einführung einer Digitalsteuer vor. Wie diese aussehen soll, wird nicht ausgeführt. Die SPD hatte zwar einen Algorithmen-TÜV gefordert, damit niemand durch softwaregestützte Entscheidungen diskriminiert wird, doch darauf verständigten sich die Mitglieder der Kommission nicht. Konkrete Maßnahmen konnte keine der Projektgruppen entwickeln. Und so bleibt der Abschlussbericht mit rund 500 Seiten zwar sehr umfassend, aber eher deskriptiv.
Anwendungen immer interessengeleitet
Etwas griffiger formulierte es im März dieses Jahres bereits der ver.di-Bundesvorstand: „Es darf keine KI-Anwendungen geben, die Menschen schaden, die gegen Menschen-und Grundrechte verstoßen. Dabei sollte nicht erst ein Schaden nachgewiesen werden müssen, sondern auch bei einem zu hohen Risiko, wenn ein Schaden nicht ausgeschlossen werden kann, sind KI-Systeme nicht einzusetzen.“ Die „Ethischen Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ sollen als Grundlage für die Diskussion mit Entwickler*innen, Programmierer*innen und Entscheider*innen dienen. Damit wird deutlich, dass es weniger um die Technik an sich, als vielmehr um die damit verbundenen Ziele geht. „Ein Algorithmus ist nicht an sich objektiv. Weil er immer in jemandes Interesse programmiert, beauftragt und eingesetzt wird,“ sagt Medienethiker Alexander Filipović. Er ist sachverständiges Mitglied der Kommission und warnt: „Wir müssen aufpassen, dass wir keine totalitären algorithmischen Systeme bekommen, die die öffentliche Kommunikation auf der Basis irgendeiner Vorstellung von gut und richtig verändern.“ Denn selbst Schreibprogramme sind immer nur so präzise, so ethisch und so transparent, wie ihre Programmierung und ihre Datengrundlage.
Am 21. Juni 2017 meldete die „Los Angeles Times“ ein Erdbeben vor Santa Barbara im Pazifik, das allerdings bereits im Jahr 1925 stattgefunden hatte. Wissenschaftler des California Institute of Technology hatten den Fehlalarm ausgelöst, als sie historische Erdbebendaten aktualisieren wollten. Der Quakebot meldete daraufhin das Erdbeben. KI eben. Schnell, aber fehlbar.