Wenn Algorithmen das Steuer übernehmen

Jahrestagung der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft. v.l.n.r.: Moderator Gerhard Vowe (Uni Düsseldorf) und die Diskutierenden Ralf Bremer (Google Deutsch-land),Jessica Heesen (Uni Tübingen),Otfried Jarren (Uni Zürich),Wolfgang Kreißig (Landesanstalt für Kommunikation, Stuttgart),Constanze Kurz (Chaos Computer Club)
Foto: DGPuK Mannheim: Katharina Ludwig

„Das Schreckgespenst des Algorithmus geistert durch die öffentliche Debatte“, so Katharina Kleinen-von-Königslöw, Professorin für digitale Kommunikation an der Uni Hamburg. Sie war eine von etwa 150 Referent_innen auf der Jahrestagung der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft in Mannheim, die sich mit „Selbstbestimmung in der digitalen Welt“ angesichts von Fake News, Social Bots und Hate Speech befasste.

Die Vorträge und Diskussionen drehten sich darum, wie Selbstbestimmung als zentraler Leitwert in der digitalen Welt gefördert werden kann und wo sie durch Algorithmus-gesteuerte Kommunikation gefährdet ist. So standen dann auch weniger technische, sondern vor allem ethische Fragen im Zentrum des Schlusspodiums mit dem Titel „Leitplanken und Verkehrszeichen: Wie die digitale Kommunikation gesellschaftlich gestaltet werden kann“.

Zunächst ging es um die Frage, ob mehr gegen Fake News getan werden müsse oder ob das Problem gar nicht so groß sei, weil Medien, die Falschinformationen verbreiten, eher sich selbst als dem rezipierenden Publikum schadeten. Medienethikerin Jessica Heesen sah Handlungsbedarf, denn mit Fake News diskreditierten sich vor allem Medien, die eine hohe Reputation haben. Vielen Blogs, bei denen „wir solche Falschinformationen sowieso als Element der Unterhaltung erwarten, nützt das eher, denn sie bekommen mehr Klicks und verdienen mehr Geld“. Google-Unternehmenssprecher Ralf Bremer vertrat die Position, dass Technologiekonzerne gezielte Fake News selbst in den Griff bekommen, wenn er sagte, die „Zugänglichmachung von Falschinformationen“ sei für die Plattform „problematisch, da wir das Vertrauen der Nutzer verlieren können, wenn falsche Suchergebnisse erscheinen“. Informatikerin Constanze Kurz vom Chaos Computer Club war da skeptisch. Von Google-Tochter YouTube würden „Fake News befeuert“. Den Versuch des Unternehmens, Fake News „durch algorithmische Verfahren auszusortieren“ sehe sie da nicht „so sonnig.“

Eher pessimistisch zeigte Kurz sich auch beim Thema Social Bots, hinter denen Algorithmen stecken, die menschliches Kommunikationsverhalten imitieren können. Die Debatte über ihren Einfluss auf Wahlen sei keineswegs übertrieben: „Das Problem wird eher größer als kleiner“, meinte sie mit Verweis auf Manipulationen in Großbritannien, Frankreich, USA, Brasilien und Indien. Daten aus sozialen Netzwerken für den kommerziellen Markt seien zum Beispiel von Cambridge Analytica für politische Zwecke genutzt worden. Die Wissenschaftler_innen in der Runde betrachteten die Einflussmöglichkeiten als weniger gravierend. Jessica Heesen sagte, aktive reale Personen könnten in Foren genauso gefährlich sein wie Social Bots. Größte Gefahr sei in Filterblasen zu landen, da viele empfänglich seien „für Nachrichten, die ihre eigene Meinung widerspiegeln“. Auch Publizistikprofessor Otfried Jarren meinte, der Einfluss von Social Bots werde übertrieben, denn sie hätten lediglich eine Verstärkerfunktion.“ Wolfgang Kreißig von der Landesmedienanstalt Baden-Württemberg sah ebenfalls begrenzten Einfluss: „Social Bots wirken nur auf wenig informierte Empfänger.“

Bei der Debatte über die soziale Gestaltung digitaler Kommunikation zeigte die Runde sich eher skeptisch gegenüber staatlichen Regulierungsmaßnahmen wie dem Netzwerkdurchsetzungsgesetz (NetzDG), das die schnelle Löschung von Hasskommentaren verlangt. „Aus Google-Sicht“ bestätigte Ralf Bremer „mit aller Vorsicht“ die Ansicht der Bitkom, durch das NetzDG werde die Strafverfolgung erschwert und „Einschnitte in die Meinungsfreiheit“ seien problematisch. Anders, nämlich aus der Perspektive der von Hate Speech Betroffenen argumentierte Jessica Heesen: „Wenn Sie einen Unfall beobachten, würden Sie sich zuerst um den Verletzten kümmern oder den Unfallverursacher?“ Man sollte verletzende Hasskommentare im Netz schnell löschen, um die Betroffenen zu schützen. Die Täter könnten später noch verfolgt werden, denn die Kommentare müssten laut NetzDG zehn Wochen zu Dokumentationszwecken aufbewahrt werden. Medienregulierer Kreißig nahm auch die Täter in den Blick und kritisierte: „Hater spüren keinen Verfolgungsdruck“. Er begrüßte die NRW-Initiative „Verfolgen statt nur Löschen“ , denn: „Wir brauchen eine abschreckende Wirkung!“

Als „unsinnig“ kritisierte Constanze Kurz die Idee, analog zum Verbraucherschutz im Interesse der Bürger_innen einen TÜV für Algorithmen und Künstliche Intelligenz (KI) einzurichten. KI sei ein selbst lernender Prozess, kein Produkt, „auf das man ein Siegel klebt“. Zentrale Frage sei: „Welche Daten gebe ich rein? Sind sie rassistisch, wird meine KI auch rassistisch sein.“ Das Wichtigste bei der Nutzung von KI sei Transparenz. Google-Sprecher Bremer versicherte, sein Unternehmen versuche seit Gründung „so transparent wie möglich zu sein“. Transparenz habe in der Praxis aber Grenzen, „wenn Akteure versuchen, Netzwerke auszutricksen.“

Otfried Jarren schlug einen Mittelweg in Sachen Transparenz vor, der zudem dem Schutz vor Wettbewerbern Rechnung trägt: Eine gesellschaftliche Kontrollinstanz solle die von Unternehmen verwendeten Algorithmen prüfen und notariell hinterlegen, ohne sie öffentlich zu machen, denn: „Wir brauchen eine Regulierung!“ Das meinte auch Jessica Heesen. Die Transparenz von Algorithmen sei eine „Sache von Experten“, aber es müsse eine Beschwerdestelle geben, wenn KI etwa bei Entscheidungen über Asyl oder Einstellungsverfahren eingesetzt wird. Dann sei ein Auditverfahren notwendig, das untersucht, welche Daten wie verwendet werden. „Wir reden um den heißen Brei herum“, kritisierte Informatikerin Kurz. Es gehe weniger um die Transparenz von Algorithmen, „Datenschutz und Manipulation von Menschen ist das eigentliche Problem. Wir müssen uns fragen, ob wir Unternehmen erlauben wollen, dass sie uns profilieren können.“

Auf die Frage, wie man gesellschaftliche Gestaltung digitaler Kommunikation „institutionell einfangen“ kann, gab es mehrere Statements. Medienethikerin Heesen forderte, Werteaspekte in die Ausbildung von Software-Entwickler_innen aufzunehmen und Unternehmensethik zu stärken. Wichtig seien „Values in Design“, d. h. die Einschreibung von Werten in Informations- und Kommunikationstechnologien. Auf zivilgesellschaftliche Partizipation setzte Publizistikwissenschaftler Jarren, als er für einen „diskursiven Folgenabschätzungsprozess bei der Technikentwicklung“ plädierte. Medienregulierer Kreißig sagte, man müsse beim „politischen Regulierungsprozess“ ansetzen, ausgehend von einer Überarbeitung des NetzDG.

nach oben

weiterlesen

Buchtipp: Social Media fördern Brandstifter

Die knallorange Warnfarbe des Buchcovers signalisiert, dass es um etwas Bedrohliches geht: die Demokratie ist in Gefahr, weil Soziale Medien Rechtsextremismus befördern. Konfliktforscher Maik Fielitz und Sozialwissenschaftler Holger Marcks analysieren, wie Rechtsextreme die Funktionsmechanismen digitaler Plattformen nutzen, um ihre faschistischen Bedrohungsmythen zu verbreiten. Sie loten Möglichkeiten zur Rettung des demokratischen Diskurses aus, etwa durch Regulierung der Techunternehmen.
mehr »

Nach 10 Jahren HbbTV: Da geht noch mehr

Seit dem Start des Hybridfernsehens HbbTV vor zehn Jahren bauen große Sendergruppen wie kleine Regionalanbieter solche Angebote kontinuierlich aus, mit umfassenden Diensten für den Nutzer und in der Hoffnung auf neue Reichweiten und zielgerichtete Werbung. Der Wettstreit zwischen Fernseh- und Online-Werbung soll endlich begraben werden. Während sich Öffentlich-Rechtliche mit sogenannten „Addressable Ads“ schwertun, sagt der kommerzielle Markt: Da ist noch mehr drin.
mehr »

Klares Signal für den Rundfunk erwartet

Der DGB-Vorsitzende Reiner Hoffmann und der ver.di-Vorsitzende Frank Werneke haben die Landtagsfraktionen in Sachsen-Anhalt gemeinsam aufgefordert, ein starkes und eindeutiges Signal für den öffentlichen-rechtlichen Rundfunk zu setzen. Die CDU im Landesparlament hatte bisher erklärt, sie wolle der erstmaligen Erhöhung der Rundfunkgebühren nach elf Jahren um 86 Cent nicht zustimmen.
mehr »

Neue Verhaltensregeln für Medien und Polizei

Der Deutsche Presserat hat der Innenministerkonferenz einen Vorschlag über zeitgemäße gemeinsame Verhaltensgrundsätze für Polizei und Medien vorgelegt. Es sei höchste Zeit, dass Journalistinnen und Journalisten bei Demonstrationen und Großveranstaltungen besser geschützt werden und ungehindert arbeiten können, erklärte Sascha Borowski, Sprecher des Deutschen Presserats, zur aktuellen Vorlage.
mehr »