Der Kollege Roboter: schnell und fehlbar

Macht uns die digitale Kommunikation einsamer oder hilft sie sogar, weniger einsam zu sein? Es kommt darauf an. Foto: 123rf

Nach gut zwei Jahren Arbeit hat die Enquete-Kommission Künstliche Intelligenz (KI) des Bundestags am 3. November 2020 ihren Abschlussbericht veröffentlicht. Zur technologischen Entwicklung der Künstlichen Intelligenz stellte sie fest, dass diese mit einem Wertewandel einhergehe und „nicht per se schlecht“ sei. Sie bedürfe allerdings einer demokratischen Gestaltung „auf der Basis einer Übereinkunft über gutes und gerechtes Leben für heute und für zukünftige Generationen“. So heißt es in der Zusammenfassung des Berichts der verschiedenen Projektgruppen.

Im Jahr 2014 veröffentlichte die „Los Angeles Times“ drei Minuten nach einem Erdbeben in Kalifornien einen Bericht über eben dieses Ereignis. Dies war möglich, weil ein Mitarbeiter einen Bot (einen Softwareroboter) namens Quakebot entwickelt hatte, der automatisch Artikel auf der Grundlage von Daten schrieb, die zuvor vom US Geological Survey generiert worden waren. Heute schreiben Künstliche Intelligenzen (KIs) Hunderttausende von Artikeln, die jede Woche in verschiedenen Medien auf der ganzen Welt veröffentlicht werden. Sie betreffen vor allem die Berichterstattung über Wetter, Sport oder Verkehr. Es sind Bereiche, für die zahlreiche strukturierte Daten vorliegen. Denn aus diesen Datenmengen kann die KI einfach Textbausteine generieren.

Bei Bloomberg sind mittlerweile ein Drittel der Nachrichten und Texte von Programmen mit KI erstellt. Die Nachrichtenagentur AP publiziert computergenerierte Finanzberichte und Info-Grafiken. Die Gemeinschaftsredaktion von „Stuttgarter Zeitung“ und „Stuttgarter Nachrichten“ hat einen Feinstaubradar entwickelt, der auf Grundlage von Messwerten automatisiert Feinstaubberichte schreibt. Und bei der Schweizer Nachrichtenagentur Keystone-SDA kommt ein Schreibroboter zum Einsatz, der unter anderem Abstimmungsdaten des Bundesamtes für Statistik (BFS) analysiert und daraus automatisierte Meldungen generiert.

Transparenz und ethische Bewertung

Neben der Frage, welche Folgen der Einsatz von KI für die Arbeitsplatzsicherheit von Journalistinnen und Journalisten hat, stehen aber auch noch die Transparenz und die ethische Bewertung der Technologie zur Debatte. Denn es geht schließlich nicht nur ums Wetter. In jüngster Vergangenheit haben vor allem soziale Medien verstärkt zur gesellschaftlichen Polarisierung und Wahlbeeinflussung beigetragen. Die verwendeten Algorithmen entscheiden nämlich darüber, welche Informationen Leser*innen vorzugsweise zu sehen bekommen, über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken.

Die Projektgruppe „KI und Medien“ der Enquete-Kommission legte eine Bestandsaufnahme vor, in der es sowohl um die Produktion als auch um die Distribution von Anwendungen und Inhalten geht. Darin heißt es: „KI-gesteuerte Empfehlungs- und Filtersysteme bieten neue Möglichkeiten für Bürgerinnen und Bürger, sich an politischen Diskussionen zu beteiligen, bergen jedoch auch Risiken hinsichtlich stark personalisierter Informationsräume, die vornehmlich auf das gezielte Platzieren verhaltensbasierter Werbung ausgerichtet sind.“ Politik müsse im Blick haben, unabhängigen Journalismus und eine pluralistische Öffentlichkeit zu gewährleisten und zu fördern und die Kompetenzen von Bürgerinnen und Bürgern im Umgang mit digitalen Nachrichten dauerhaft und permanent zu stärken.

Bislang kein Algorithmen-TÜV

Um die Medienvielfalt zu erhalten, schlägt die Projektgruppe eine entsprechende Anpassung des Kartellrechts und gegebenenfalls die Einführung einer Digitalsteuer vor. Wie diese aussehen soll, wird nicht ausgeführt. Die SPD hatte zwar einen Algorithmen-TÜV gefordert, damit niemand durch softwaregestützte Entscheidungen diskriminiert wird, doch darauf verständigten sich die Mitglieder der Kommission nicht. Konkrete Maßnahmen konnte keine der Projektgruppen entwickeln. Und so bleibt der Abschlussbericht mit rund 500 Seiten zwar sehr umfassend, aber eher deskriptiv.

Anwendungen immer interessengeleitet

Etwas griffiger formulierte es im März dieses Jahres bereits der ver.di-Bundesvorstand: „Es darf keine KI-Anwendungen geben, die Menschen schaden, die gegen Menschen-und Grundrechte verstoßen. Dabei sollte nicht erst ein Schaden nachgewiesen werden müssen, sondern auch bei einem zu hohen Risiko, wenn ein Schaden nicht ausgeschlossen werden kann, sind KI-Systeme nicht einzusetzen.“ Die „Ethischen Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ sollen als Grundlage für die Diskussion mit Entwickler*innen, Programmierer*innen und Entscheider*innen dienen. Damit wird deutlich, dass es weniger um die Technik an sich, als vielmehr um die damit verbundenen Ziele geht. „Ein Algorithmus ist nicht an sich objektiv. Weil er immer in jemandes Interesse programmiert, beauftragt und eingesetzt wird,“ sagt Medienethiker Alexander Filipović. Er ist sachverständiges Mitglied der Kommission und warnt: „Wir müssen aufpassen, dass wir keine totalitären algorithmischen Systeme bekommen, die die öffentliche Kommunikation auf der Basis irgendeiner Vorstellung von gut und richtig verändern.“ Denn selbst Schreibprogramme sind immer nur so präzise, so ethisch und so transparent, wie ihre Programmierung und ihre Datengrundlage.

Am 21. Juni 2017 meldete die „Los Angeles Times“ ein Erdbeben vor Santa Barbara im Pazifik, das allerdings bereits im Jahr 1925 stattgefunden hatte. Wissenschaftler des California Institute of Technology hatten den Fehlalarm ausgelöst, als sie historische Erdbebendaten aktualisieren wollten. Der Quakebot meldete daraufhin das Erdbeben. KI eben. Schnell, aber fehlbar.

 

nach oben

Weitere aktuelle Beiträge

Ver.di: Deutsche Welle nicht kürzen

Die Vereinte Dienstleistungsgewerkschaft (ver.di) kritisiert die geplante Etat-Senkung bei der Deutschen Welle, mit der eine Schrumpfung des deutschen Auslandssenders einhergehen wird. Stattdessen müsse eine ausreichende Finanzierung durch Bundesmittel gewährleistet werden.
mehr »

Schon entdeckt? Wie Rechte reden

Jede Woche die Analyse eines rechten Zitats – ob aus dem Bundestag oder beim Weihnachtsessen mit der Familie. Das bietet der Newsletter „Wie Rechte reden“ von Maria Timtschenko und Johannes Giesler. Denn: „Die Neue Rechte ist da“, wie die Autor*innen in der Ankündigung ihres Newsletters schreiben: „Sie ist auf der WG-Party bei deinen Freund:innen eingeladen. Sie steht neben dir in der Schlange für ‚Einmal Döner, bitte‘." Und sie verschiebt ihren menschenfeindlichen und autoritären Diskurs in die gesellschaftliche Öffentlichkeit, in Kommentarspalten, eigenen Medien oder Gruppenchats.
mehr »

RSF: Exilmedien als Quelle

Sie decken Korruption und Unterdrückung auf, wo ausländische Korrespondent*innen keinen Zugang haben: Exilmedien sorgen dafür, dass zuverlässige Informationen aus geschlossenen Diktaturen weiterhin verfügbar bleiben. In Kooperation mit dem JX Fund stellt Reporter ohne Grenzen (RSF) dar, wie wichtig Exiljournalist*innen in der internationalen Berichterstattung sind.
mehr »

Urheberrecht: ChatGPT-Urteil ist Anfang

Ein Präzedenzfall ist das Urteil im Rechtsstreit zwischen der Verwertungsgesellschaft Gema und dem KI-Unternehmen OpenAI vom 11. November 2025 sicherlich. Aber abgesehen von einem zu erwartenden längeren Instanzenweg stellt sich auch die Frage, wie sich die gesamte Kreativwirtschaft gegen die ungefragte Nutzung von geistigem Eigentum wehren kann.
mehr »