„Das Schreckgespenst des Algorithmus geistert durch die öffentliche Debatte“, so Katharina Kleinen-von-Königslöw, Professorin für digitale Kommunikation an der Uni Hamburg. Sie war eine von etwa 150 Referent_innen auf der Jahrestagung der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft in Mannheim, die sich mit „Selbstbestimmung in der digitalen Welt“ angesichts von Fake News, Social Bots und Hate Speech befasste.
Die Vorträge und Diskussionen drehten sich darum, wie Selbstbestimmung als zentraler Leitwert in der digitalen Welt gefördert werden kann und wo sie durch Algorithmus-gesteuerte Kommunikation gefährdet ist. So standen dann auch weniger technische, sondern vor allem ethische Fragen im Zentrum des Schlusspodiums mit dem Titel „Leitplanken und Verkehrszeichen: Wie die digitale Kommunikation gesellschaftlich gestaltet werden kann“.
Zunächst ging es um die Frage, ob mehr gegen Fake News getan werden müsse oder ob das Problem gar nicht so groß sei, weil Medien, die Falschinformationen verbreiten, eher sich selbst als dem rezipierenden Publikum schadeten. Medienethikerin Jessica Heesen sah Handlungsbedarf, denn mit Fake News diskreditierten sich vor allem Medien, die eine hohe Reputation haben. Vielen Blogs, bei denen „wir solche Falschinformationen sowieso als Element der Unterhaltung erwarten, nützt das eher, denn sie bekommen mehr Klicks und verdienen mehr Geld“. Google-Unternehmenssprecher Ralf Bremer vertrat die Position, dass Technologiekonzerne gezielte Fake News selbst in den Griff bekommen, wenn er sagte, die „Zugänglichmachung von Falschinformationen“ sei für die Plattform „problematisch, da wir das Vertrauen der Nutzer verlieren können, wenn falsche Suchergebnisse erscheinen“. Informatikerin Constanze Kurz vom Chaos Computer Club war da skeptisch. Von Google-Tochter YouTube würden „Fake News befeuert“. Den Versuch des Unternehmens, Fake News „durch algorithmische Verfahren auszusortieren“ sehe sie da nicht „so sonnig.“
Eher pessimistisch zeigte Kurz sich auch beim Thema Social Bots, hinter denen Algorithmen stecken, die menschliches Kommunikationsverhalten imitieren können. Die Debatte über ihren Einfluss auf Wahlen sei keineswegs übertrieben: „Das Problem wird eher größer als kleiner“, meinte sie mit Verweis auf Manipulationen in Großbritannien, Frankreich, USA, Brasilien und Indien. Daten aus sozialen Netzwerken für den kommerziellen Markt seien zum Beispiel von Cambridge Analytica für politische Zwecke genutzt worden. Die Wissenschaftler_innen in der Runde betrachteten die Einflussmöglichkeiten als weniger gravierend. Jessica Heesen sagte, aktive reale Personen könnten in Foren genauso gefährlich sein wie Social Bots. Größte Gefahr sei in Filterblasen zu landen, da viele empfänglich seien „für Nachrichten, die ihre eigene Meinung widerspiegeln“. Auch Publizistikprofessor Otfried Jarren meinte, der Einfluss von Social Bots werde übertrieben, denn sie hätten lediglich eine Verstärkerfunktion.“ Wolfgang Kreißig von der Landesmedienanstalt Baden-Württemberg sah ebenfalls begrenzten Einfluss: „Social Bots wirken nur auf wenig informierte Empfänger.“
Bei der Debatte über die soziale Gestaltung digitaler Kommunikation zeigte die Runde sich eher skeptisch gegenüber staatlichen Regulierungsmaßnahmen wie dem Netzwerkdurchsetzungsgesetz (NetzDG), das die schnelle Löschung von Hasskommentaren verlangt. „Aus Google-Sicht“ bestätigte Ralf Bremer „mit aller Vorsicht“ die Ansicht der Bitkom, durch das NetzDG werde die Strafverfolgung erschwert und „Einschnitte in die Meinungsfreiheit“ seien problematisch. Anders, nämlich aus der Perspektive der von Hate Speech Betroffenen argumentierte Jessica Heesen: „Wenn Sie einen Unfall beobachten, würden Sie sich zuerst um den Verletzten kümmern oder den Unfallverursacher?“ Man sollte verletzende Hasskommentare im Netz schnell löschen, um die Betroffenen zu schützen. Die Täter könnten später noch verfolgt werden, denn die Kommentare müssten laut NetzDG zehn Wochen zu Dokumentationszwecken aufbewahrt werden. Medienregulierer Kreißig nahm auch die Täter in den Blick und kritisierte: „Hater spüren keinen Verfolgungsdruck“. Er begrüßte die NRW-Initiative „Verfolgen statt nur Löschen“ , denn: „Wir brauchen eine abschreckende Wirkung!“
Als „unsinnig“ kritisierte Constanze Kurz die Idee, analog zum Verbraucherschutz im Interesse der Bürger_innen einen TÜV für Algorithmen und Künstliche Intelligenz (KI) einzurichten. KI sei ein selbst lernender Prozess, kein Produkt, „auf das man ein Siegel klebt“. Zentrale Frage sei: „Welche Daten gebe ich rein? Sind sie rassistisch, wird meine KI auch rassistisch sein.“ Das Wichtigste bei der Nutzung von KI sei Transparenz. Google-Sprecher Bremer versicherte, sein Unternehmen versuche seit Gründung „so transparent wie möglich zu sein“. Transparenz habe in der Praxis aber Grenzen, „wenn Akteure versuchen, Netzwerke auszutricksen.“
Otfried Jarren schlug einen Mittelweg in Sachen Transparenz vor, der zudem dem Schutz vor Wettbewerbern Rechnung trägt: Eine gesellschaftliche Kontrollinstanz solle die von Unternehmen verwendeten Algorithmen prüfen und notariell hinterlegen, ohne sie öffentlich zu machen, denn: „Wir brauchen eine Regulierung!“ Das meinte auch Jessica Heesen. Die Transparenz von Algorithmen sei eine „Sache von Experten“, aber es müsse eine Beschwerdestelle geben, wenn KI etwa bei Entscheidungen über Asyl oder Einstellungsverfahren eingesetzt wird. Dann sei ein Auditverfahren notwendig, das untersucht, welche Daten wie verwendet werden. „Wir reden um den heißen Brei herum“, kritisierte Informatikerin Kurz. Es gehe weniger um die Transparenz von Algorithmen, „Datenschutz und Manipulation von Menschen ist das eigentliche Problem. Wir müssen uns fragen, ob wir Unternehmen erlauben wollen, dass sie uns profilieren können.“
Auf die Frage, wie man gesellschaftliche Gestaltung digitaler Kommunikation „institutionell einfangen“ kann, gab es mehrere Statements. Medienethikerin Heesen forderte, Werteaspekte in die Ausbildung von Software-Entwickler_innen aufzunehmen und Unternehmensethik zu stärken. Wichtig seien „Values in Design“, d. h. die Einschreibung von Werten in Informations- und Kommunikationstechnologien. Auf zivilgesellschaftliche Partizipation setzte Publizistikwissenschaftler Jarren, als er für einen „diskursiven Folgenabschätzungsprozess bei der Technikentwicklung“ plädierte. Medienregulierer Kreißig sagte, man müsse beim „politischen Regulierungsprozess“ ansetzen, ausgehend von einer Überarbeitung des NetzDG.