Googles Filterblasen sind geplatzt

„Algorithmen transparent machen: Welchen Einfluss hatte Google auf die Bundestagswahl 2017?“ – Diese Frage stand im Mittelpunkt einer im Auftrag einiger Landesmedienanstalten durchgeführten Untersuchung über die Rolle von Algorithmen bei der politischen Meinungsbildung im Internet, die in der Bayerischen Landesvertretung in Berlin vorgestellt wurde. Ergebnis: Die „Theorie“ von der Filterblase ist zwar – zunächst – geplatzt. Zur Entwarnung besteht jedoch nach Meinung von Expert_innen kein Anlass.

Ziel der Studie war es, herauszufinden, „ob und wie Suchergebnisse zu politischen Stichworten bei Google personalisiert werden“, so Projektleiterin Katharina Zweig von der TU Kaiserslautern. Hintergrund ist die seit 2011 umhergeisternde Annahme von der Existenz einer „Filterbubble“ (nach der gleichnamigen Publikation von Eli Pariser). Jeder User drückt mit seinem Klickverhalten im Netz bestimmte Vorlieben aus. Spätestens seit der Einführung eines personalisierten Suchsystems von Google hält sich hartnäckig der Verdacht, die Suchmaschine entscheide aufgrund spezifischer, intransparenter Algorithmen darüber, wer wann und wie welche Nachrichten angezeigt bekommt. Dadurch, so die Vermutung, entstehe ein so genannter Echokammer-Effekt, bei dem Gleichgesinnte unter sich blieben, mit entsprechenden Folgen für die Meinungsvielfalt in der Gesellschaft.

Die im Juli 2017 gestartete Studie basierte auf der freiwilligen „Datenspende“ von 4.384 Teilnehmer_innen, die im Untersuchungszeitraum fast sechs Millionen Suchergebnisse zu einer bestimmten Zahl von Politiker_innen und Parteien auswiesen. Die Auswertung zeigt, dass diese Ergebnisse für die Nutzer_innen wesentlich weniger personalisiert wurden als ursprünglich erwartet. Nur vier bis fünf von 20 Ergebnissen in der Liste der „Google News“ – also gerade mal ein Viertel – unterscheiden sich demnach aufgrund der Personalisierung. In der „Google“-Suche, in der alle Ergebnisse angezeigt werden, fällt die Zahl der Abweichungen noch geringer aus. Zweigs Fazit:  „Die Blase ist geplatzt.“ Aber eben nur, was die sehr konkrete Frage, nämlich die Suche nach einzelnen Politiker_innen und Parteien im Wahlkampf angeht, und zwar auf Basis eines nicht repräsentativen Samples freiwilliger Datenspender_innen.

Anja Zimmer, Direktorin der Auftrag gebenden Medienanstalt Berlin-Brandenburg (MABB), gab sich „nicht wirklich überrascht“ vom Ergebnis. Anders als in den USA, wo im Zeichen eines in Demokraten und Republikaner polarisierten Zweiparteiensystems im Netz die berüchtigten Filterblasen längst vorhanden seien, gebe es in Deutschland eine wesentlich vielfältigere Medienlandschaft. Dennoch bestehe „kein Anlass, sich entspannt zurückzulehnen“. Zimmer forderte in der Algorithmenfrage „mehr Transparenz“ ein. Per Gesetz könnten Intermediäre wie Google, Facebook und Co. verpflichtet werden entsprechende Informationen zur Verfügung zu stellen. „Nach welchen Kriterien wird gesucht? Wie werden Inhalte sortiert? Wieso taucht dies oder das in meiner Timeline auf?“ Die MABB-Direktorin machte sich stark für einen stärkeren Informationsaustausch zwischen Aufsichtsbehörden und Informationsintermediären.

Thomas Jarzombek, Sprecher der CDU/CSU-Bundestagsfraktion für die Digitale Agenda, bemerkte, die Meinungsmacht von Internetriesen werde dann zum Problem, „wenn sie missbraucht wird“. Im Koalitionsvertrag sei mit der SPD daher eine „Ethik-Kommission für Daten“ verabredet worden. Er plädierte in bestimmten Fällen für einen Revisionsanspruch der Betroffenen: „Wenn sich jemand durch eine Maschine benachteiligt fühlt, muss das revidiert werden.“


Das Projekt #Datenspende wurde finanziert von den Landesmedienanstalten aus Bayern (BLM), Hessen (LPR) Rheinland-Pfalz (LMK), Saarland (LMS), Sachsen (SLM) und der MABB. Kooperationspartner waren die gemeinnützige Initiative für die Kontrolle algorithmischer Entscheidungsfindung (AlgorithmWatch) und die TU Kaiserslautern.

nach oben

Weitere aktuelle Beiträge

Italien: Neun Jahre Haft für Recherche?

Drei Reporter*innen der italienischen Tageszeitung Domani müssen mit bis zu neun Jahren Gefängnis rechnen. Die Staatsanwaltschaft Perugia ermittelt gegen sie, weil sie vertrauliche Dokumente von einem Beamten angefordert und erhalten und das Geheimhaltungsprinzip der Ermittlungen verletzt haben sollen. Die dju-Bundesvorsitzende Tina Groll kritisierte, dass „hier investigative Berichterstattung über Mitglieder der italienischen Regierung unterdrückt werden soll."
mehr »

KI darf keine KI-Texte nutzen

Die Diskussion über Möglichkeiten und Grenzen der KI im eigenen Metier wird Journalist*innen noch lange weiter beschäftigen. Bei der jüngsten ver.di-KI-Online-Veranstaltung ging es um den Anspruch an Gute Arbeit und Qualität. ver.di hat zum Einsatz von KI Positionen und ethische Leitlinien entwickelt. Bettina Hesse, Referentin für Medienpolitik, stellte das Papier vor, das die Bundesfachgruppe Medien, Journalismus und Film zum Einsatz von generativer Künstlicher Intelligenz im Journalismus erarbeitet hat.
mehr »

RSF: Vertrauen Sie der freien Presse!

Mehr als die Hälfte der Weltbevölkerung wählt in diesem Jahr ein neues Staatsoberhaupt oder eine neue Regierung, Regional- oder Kommunalpolitiker. Gleichzeitig begeht die deutsche Sektion von Reporter ohne Grenzen (RSF) ihr 30-jähriges Bestehen. Grund genug für die Kampagne „Erste Worte“. Unterschiedliche Menschen hören Auszüge aus den Antrittsreden ihrer Präsidenten: Wladimir Putin aus dem Jahr 2000, Nicolás Maduro aus dem Jahr 2013 und Recep Tayyip Erdogan 2014.
mehr »

Unabhängige Medien in Gefahr

Beim ver.di-Medientag Sachsen, Sachsen-Anhalt und Thüringen diskutierten am 20. April rund 50 Teilnehmende im Zeitgeschichtlichen Forum in Leipzig die aktuelle Entwicklungen in der Medienlandschaft, die Diversität in den Medien und Angriffe auf Medienschaffende. Das alles auch vor dem Hintergrund, dass bei den kommenden Landtagswahlen in Thüringen, Sachsen und Brandenburg die AfD laut Umfragen stark profitiert. 
mehr »