Der Kollege Roboter: schnell und fehlbar

Foto: 123rf

Nach gut zwei Jahren Arbeit hat die Enquete-Kommission Künstliche Intelligenz (KI) des Bundestags am 3. November 2020 ihren Abschlussbericht veröffentlicht. Zur technologischen Entwicklung der Künstlichen Intelligenz stellte sie fest, dass diese mit einem Wertewandel einhergehe und „nicht per se schlecht“ sei. Sie bedürfe allerdings einer demokratischen Gestaltung „auf der Basis einer Übereinkunft über gutes und gerechtes Leben für heute und für zukünftige Generationen“. So heißt es in der Zusammenfassung des Berichts der verschiedenen Projektgruppen.

Im Jahr 2014 veröffentlichte die „Los Angeles Times“ drei Minuten nach einem Erdbeben in Kalifornien einen Bericht über eben dieses Ereignis. Dies war möglich, weil ein Mitarbeiter einen Bot (einen Softwareroboter) namens Quakebot entwickelt hatte, der automatisch Artikel auf der Grundlage von Daten schrieb, die zuvor vom US Geological Survey generiert worden waren. Heute schreiben Künstliche Intelligenzen (KIs) Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden. Sie betreffen vor allem die Berichterstattung über Wetter, Sport oder Verkehr. Es sind Bereiche, für die zahlreiche strukturierte Daten vorliegen. Denn aus diesen Datenmengen kann die KI einfach Textbausteine generieren.

Bei Bloomberg sind mittlerweile ein Drittel der Nachrichten und Texte von Programmen mit KI erstellt. Die Nachrichtenagentur AP publiziert computergenerierte Finanzberichte und Info-Grafiken. Die Gemeinschaftsredaktion von „Stuttgarter Zeitung“ und „Stuttgarter Nachrichten“ hat einen Feinstaubradar entwickelt, der auf Grundlage von Messwerten automatisiert Feinstaubberichte schreibt. Und bei der Schweizer Nachrichtenagentur Keystone-SDA kommt ein Schreibroboter zum Einsatz, der unter anderem Abstimmungsdaten des Bundesamtes für Statistik (BFS) analysiert und daraus automatisierte Meldungen generiert.

Transparenz und ethische Bewertung

Neben der Frage, welche Folgen der Einsatz von KI für die Arbeitsplatzsicherheit von Journalistinnen und Journalisten hat, stehen aber auch noch die Transparenz und die ethische Bewertung der Technologie zur Debatte. Denn es geht schließlich nicht nur ums Wetter. In jüngster Vergangenheit haben vor allem soziale Medien verstärkt zur gesellschaftlichen Polarisierung und Wahlbeeinflussung beigetragen. Die verwendeten Algorithmen entscheiden nämlich darüber, welche Informationen Leser*innen vorzugsweise zu sehen bekommen, über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken.

Die Projektgruppe „KI und Medien“ der Enquete-Kommission legte eine Bestandsaufnahme vor, in der es sowohl um die Produktion als auch um die Distribution von Anwendungen und Inhalten geht. Darin heißt es: „KI-gesteuerte Empfehlungs- und Filtersysteme bieten neue Möglichkeiten für Bürgerinnen und Bürger, sich an politischen Diskussionen zu beteiligen, bergen jedoch auch Risiken hinsichtlich stark personalisierter Informationsräume, die vornehmlich auf das gezielte Platzieren verhaltensbasierter Werbung ausgerichtet sind.“ Politik müsse im Blick haben, unabhängigen Journalismus und eine pluralistische Öffentlichkeit zu gewährleisten und zu fördern und die Kompetenzen von Bürgerinnen und Bürgern im Umgang mit digitalen Nachrichten dauerhaft und permanent zu stärken.

Bislang kein Algorithmen-TÜV

Um die Medienvielfalt zu erhalten, schlägt die Projektgruppe eine entsprechende Anpassung des Kartellrechts und gegebenenfalls die Einführung einer Digitalsteuer vor. Wie diese aussehen soll, wird nicht ausgeführt. Die SPD hatte zwar einen Algorithmen-TÜV gefordert, damit niemand durch softwaregestützte Entscheidungen diskriminiert wird, doch darauf verständigten sich die Mitglieder der Kommission nicht. Konkrete Maßnahmen konnte keine der Projektgruppen entwickeln. Und so bleibt der Abschlussbericht mit rund 500 Seiten zwar sehr umfassend, aber eher deskriptiv.

Anwendungen immer interessengeleitet

Etwas griffiger formulierte es im März dieses Jahres bereits der ver.di-Bundesvorstand: „Es darf keine KI-Anwendungen geben, die Menschen schaden, die gegen Menschen-und Grundrechte verstoßen. Dabei sollte nicht erst ein Schaden nachgewiesen werden müssen, sondern auch bei einem zu hohen Risiko, wenn ein Schaden nicht ausgeschlossen werden kann, sind KI-Systeme nicht einzusetzen.“ Die „Ethischen Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ sollen als Grundlage für die Diskussion mit Entwickler*innen, Programmierer*innen und Entscheider*innen dienen. Damit wird deutlich, dass es weniger um die Technik an sich, als vielmehr um die damit verbundenen Ziele geht. „Ein Algorithmus ist nicht an sich objektiv. Weil er immer in jemandes Interesse programmiert, beauftragt und eingesetzt wird,“ sagt Medienethiker Alexander Filipović. Er ist sachverständiges Mitglied der Kommission und warnt: „Wir müssen aufpassen, dass wir keine totalitären algorithmischen Systeme bekommen, die die öffentliche Kommunikation auf der Basis irgendeiner Vorstellung von gut und richtig verändern.“ Denn selbst Schreibprogramme sind immer nur so präzise, so ethisch und so transparent, wie ihre Programmierung und ihre Datengrundlage.

Am 21. Juni 2017 meldete die „Los Angeles Times“ ein Erdbeben vor Santa Barbara im Pazifik, das allerdings bereits im Jahr 1925 stattgefunden hatte. Wissenschaftler des California Institute of Technology hatten den Fehlalarm ausgelöst, als sie historische Erdbebendaten aktualisieren wollten. Der Quakebot meldete daraufhin das Erdbeben. KI eben. Schnell, aber fehlbar.

 

nach oben

weiterlesen

Buchtipp: Social Media fördern Brandstifter

Die knallorange Warnfarbe des Buchcovers signalisiert, dass es um etwas Bedrohliches geht: die Demokratie ist in Gefahr, weil Soziale Medien Rechtsextremismus befördern. Konfliktforscher Maik Fielitz und Sozialwissenschaftler Holger Marcks analysieren, wie Rechtsextreme die Funktionsmechanismen digitaler Plattformen nutzen, um ihre faschistischen Bedrohungsmythen zu verbreiten. Sie loten Möglichkeiten zur Rettung des demokratischen Diskurses aus, etwa durch Regulierung der Techunternehmen.
mehr »

Nach 10 Jahren HbbTV: Da geht noch mehr

Seit dem Start des Hybridfernsehens HbbTV vor zehn Jahren bauen große Sendergruppen wie kleine Regionalanbieter solche Angebote kontinuierlich aus, mit umfassenden Diensten für den Nutzer und in der Hoffnung auf neue Reichweiten und zielgerichtete Werbung. Der Wettstreit zwischen Fernseh- und Online-Werbung soll endlich begraben werden. Während sich Öffentlich-Rechtliche mit sogenannten „Addressable Ads“ schwertun, sagt der kommerzielle Markt: Da ist noch mehr drin.
mehr »

Neue Verhaltensregeln für Medien und Polizei

Der Deutsche Presserat hat der Innenministerkonferenz einen Vorschlag über zeitgemäße gemeinsame Verhaltensgrundsätze für Polizei und Medien vorgelegt. Es sei höchste Zeit, dass Journalistinnen und Journalisten bei Demonstrationen und Großveranstaltungen besser geschützt werden und ungehindert arbeiten können, erklärte Sascha Borowski, Sprecher des Deutschen Presserats, zur aktuellen Vorlage.
mehr »

Schon entdeckt? femMit

„Gleichberechtigung wartet nicht, bis sich die Pandemie ausgetobt hat“, sagt Romina Stawowy. Ziel der Medienfrau ist es, weibliche Vorbilder sichtbar zu machen. Weil das auf einer von ihr geplanten Konferenz in diesem Jahr nicht ging, startete sie das Magazin femMit. Die Schwerpunkte in der ersten Ausgabe: die Folgen der Corona-Krise für Frauen und Hass im Netz. Großen Wert legt die Redakteurin auf persönliche Geschichten und Porträts.
mehr »