Der Kollege Roboter: schnell und fehlbar

Wer spricht und schreibt? Menschen wünschen sich Klarheit bei Künstlicher Intelligenz Foto: 123rf

Nach gut zwei Jahren Arbeit hat die Enquete-Kommission Künstliche Intelligenz (KI) des Bundestags am 3. November 2020 ihren Abschlussbericht veröffentlicht. Zur technologischen Entwicklung der Künstlichen Intelligenz stellte sie fest, dass diese mit einem Wertewandel einhergehe und „nicht per se schlecht“ sei. Sie bedürfe allerdings einer demokratischen Gestaltung „auf der Basis einer Übereinkunft über gutes und gerechtes Leben für heute und für zukünftige Generationen“. So heißt es in der Zusammenfassung des Berichts der verschiedenen Projektgruppen.

Im Jahr 2014 veröffentlichte die „Los Angeles Times“ drei Minuten nach einem Erdbeben in Kalifornien einen Bericht über eben dieses Ereignis. Dies war möglich, weil ein Mitarbeiter einen Bot (einen Softwareroboter) namens Quakebot entwickelt hatte, der automatisch Artikel auf der Grundlage von Daten schrieb, die zuvor vom US Geological Survey generiert worden waren. Heute schreiben Künstliche Intelligenzen (KIs) Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden. Sie betreffen vor allem die Berichterstattung über Wetter, Sport oder Verkehr. Es sind Bereiche, für die zahlreiche strukturierte Daten vorliegen. Denn aus diesen Datenmengen kann die KI einfach Textbausteine generieren.

Bei Bloomberg sind mittlerweile ein Drittel der Nachrichten und Texte von Programmen mit KI erstellt. Die Nachrichtenagentur AP publiziert computergenerierte Finanzberichte und Info-Grafiken. Die Gemeinschaftsredaktion von „Stuttgarter Zeitung“ und „Stuttgarter Nachrichten“ hat einen Feinstaubradar entwickelt, der auf Grundlage von Messwerten automatisiert Feinstaubberichte schreibt. Und bei der Schweizer Nachrichtenagentur Keystone-SDA kommt ein Schreibroboter zum Einsatz, der unter anderem Abstimmungsdaten des Bundesamtes für Statistik (BFS) analysiert und daraus automatisierte Meldungen generiert.

Transparenz und ethische Bewertung

Neben der Frage, welche Folgen der Einsatz von KI für die Arbeitsplatzsicherheit von Journalistinnen und Journalisten hat, stehen aber auch noch die Transparenz und die ethische Bewertung der Technologie zur Debatte. Denn es geht schließlich nicht nur ums Wetter. In jüngster Vergangenheit haben vor allem soziale Medien verstärkt zur gesellschaftlichen Polarisierung und Wahlbeeinflussung beigetragen. Die verwendeten Algorithmen entscheiden nämlich darüber, welche Informationen Leser*innen vorzugsweise zu sehen bekommen, über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken.

Die Projektgruppe „KI und Medien“ der Enquete-Kommission legte eine Bestandsaufnahme vor, in der es sowohl um die Produktion als auch um die Distribution von Anwendungen und Inhalten geht. Darin heißt es: „KI-gesteuerte Empfehlungs- und Filtersysteme bieten neue Möglichkeiten für Bürgerinnen und Bürger, sich an politischen Diskussionen zu beteiligen, bergen jedoch auch Risiken hinsichtlich stark personalisierter Informationsräume, die vornehmlich auf das gezielte Platzieren verhaltensbasierter Werbung ausgerichtet sind.“ Politik müsse im Blick haben, unabhängigen Journalismus und eine pluralistische Öffentlichkeit zu gewährleisten und zu fördern und die Kompetenzen von Bürgerinnen und Bürgern im Umgang mit digitalen Nachrichten dauerhaft und permanent zu stärken.

Bislang kein Algorithmen-TÜV

Um die Medienvielfalt zu erhalten, schlägt die Projektgruppe eine entsprechende Anpassung des Kartellrechts und gegebenenfalls die Einführung einer Digitalsteuer vor. Wie diese aussehen soll, wird nicht ausgeführt. Die SPD hatte zwar einen Algorithmen-TÜV gefordert, damit niemand durch softwaregestützte Entscheidungen diskriminiert wird, doch darauf verständigten sich die Mitglieder der Kommission nicht. Konkrete Maßnahmen konnte keine der Projektgruppen entwickeln. Und so bleibt der Abschlussbericht mit rund 500 Seiten zwar sehr umfassend, aber eher deskriptiv.

Anwendungen immer interessengeleitet

Etwas griffiger formulierte es im März dieses Jahres bereits der ver.di-Bundesvorstand: „Es darf keine KI-Anwendungen geben, die Menschen schaden, die gegen Menschen-und Grundrechte verstoßen. Dabei sollte nicht erst ein Schaden nachgewiesen werden müssen, sondern auch bei einem zu hohen Risiko, wenn ein Schaden nicht ausgeschlossen werden kann, sind KI-Systeme nicht einzusetzen.“ Die „Ethischen Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ sollen als Grundlage für die Diskussion mit Entwickler*innen, Programmierer*innen und Entscheider*innen dienen. Damit wird deutlich, dass es weniger um die Technik an sich, als vielmehr um die damit verbundenen Ziele geht. „Ein Algorithmus ist nicht an sich objektiv. Weil er immer in jemandes Interesse programmiert, beauftragt und eingesetzt wird,“ sagt Medienethiker Alexander Filipović. Er ist sachverständiges Mitglied der Kommission und warnt: „Wir müssen aufpassen, dass wir keine totalitären algorithmischen Systeme bekommen, die die öffentliche Kommunikation auf der Basis irgendeiner Vorstellung von gut und richtig verändern.“ Denn selbst Schreibprogramme sind immer nur so präzise, so ethisch und so transparent, wie ihre Programmierung und ihre Datengrundlage.

Am 21. Juni 2017 meldete die „Los Angeles Times“ ein Erdbeben vor Santa Barbara im Pazifik, das allerdings bereits im Jahr 1925 stattgefunden hatte. Wissenschaftler des California Institute of Technology hatten den Fehlalarm ausgelöst, als sie historische Erdbebendaten aktualisieren wollten. Der Quakebot meldete daraufhin das Erdbeben. KI eben. Schnell, aber fehlbar.

 

nach oben

Weitere aktuelle Beiträge

Gemeinsame Standards für Medienfreiheit

In Brüssel wird der European Media Freedom Act (EMFA) bereits als "Beginn einer neuen Ära" zelebriert. Ziel der Verordnung ist es, die Unabhängigkeit und Vielfalt journalistischer Medien in der EU in vielfacher Hinsicht zu stärken. Doch wie er von den Mitgliedsstaaten  - vor allem dort, wo etwa die Pressefreiheit gefährdet ist wie Ungarn und der Slowakei - umgesetzt wird, zeigt sich erst im kommenden Sommer.
mehr »

Filmtipp: Die Saat des Heiligen Feigenbaums

Die Alten hüten die Asche, die Jungen schüren das Feuer. Konflikte zwischen den Generationen sind vermutlich so alt wie die Geschichte der Menschheit. Zumindest im Westen haben die im Rückblick als „68er-Bewegung“ zusammengefassten Proteste für tiefgreifende gesellschaftliche Umwälzungen gesorgt. Angesichts des Klimawandels könnte sich das Phänomen wiederholen. Mohammad Rasoulofs Familiendrama, deutscher „Oscar“-Kandidat, beschreibt anhand der Demonstrationen im Iran, wie sich die Alten wehren.
mehr »

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

KI-Lösungen: Heise macht es selbst

Das Medienhaus „Heise Medien“ hat kürzlich das auf generative Künstliche Intelligenz (KI) spezialisierte Medienhaus „Deep Content“ (digitale Magazine „Mixed“ und „The Decoder“) aus Leipzig gekauft. Damit will Heise die Zukunft generativer KI mitgestalten. „Deep Content“ entwickelte mit „DC I/O“ ein professionelles KI-gestütztes Workflow-Framework für Content-Teams und Redaktionen. Bereits seit Juni dieses Jahres kooperiert Heise mit „Deep Content“ bei der Produktion des Podcasts „KI-Update“. Hinter der Übernahme steckt die Idee, den neuen Markt weiter zu erschließen und hohe Gewinne einzufahren.
mehr »