„Algorithmen transparent machen: Welchen Einfluss hatte Google auf die Bundestagswahl 2017?“ – Diese Frage stand im Mittelpunkt einer im Auftrag einiger Landesmedienanstalten durchgeführten Untersuchung über die Rolle von Algorithmen bei der politischen Meinungsbildung im Internet, die in der Bayerischen Landesvertretung in Berlin vorgestellt wurde. Ergebnis: Die „Theorie“ von der Filterblase ist zwar – zunächst – geplatzt. Zur Entwarnung besteht jedoch nach Meinung von Expert_innen kein Anlass.
Ziel der Studie war es, herauszufinden, „ob und wie Suchergebnisse zu politischen Stichworten bei Google personalisiert werden“, so Projektleiterin Katharina Zweig von der TU Kaiserslautern. Hintergrund ist die seit 2011 umhergeisternde Annahme von der Existenz einer „Filterbubble“ (nach der gleichnamigen Publikation von Eli Pariser). Jeder User drückt mit seinem Klickverhalten im Netz bestimmte Vorlieben aus. Spätestens seit der Einführung eines personalisierten Suchsystems von Google hält sich hartnäckig der Verdacht, die Suchmaschine entscheide aufgrund spezifischer, intransparenter Algorithmen darüber, wer wann und wie welche Nachrichten angezeigt bekommt. Dadurch, so die Vermutung, entstehe ein so genannter Echokammer-Effekt, bei dem Gleichgesinnte unter sich blieben, mit entsprechenden Folgen für die Meinungsvielfalt in der Gesellschaft.
Die im Juli 2017 gestartete Studie basierte auf der freiwilligen „Datenspende“ von 4.384 Teilnehmer_innen, die im Untersuchungszeitraum fast sechs Millionen Suchergebnisse zu einer bestimmten Zahl von Politiker_innen und Parteien auswiesen. Die Auswertung zeigt, dass diese Ergebnisse für die Nutzer_innen wesentlich weniger personalisiert wurden als ursprünglich erwartet. Nur vier bis fünf von 20 Ergebnissen in der Liste der „Google News“ – also gerade mal ein Viertel – unterscheiden sich demnach aufgrund der Personalisierung. In der „Google“-Suche, in der alle Ergebnisse angezeigt werden, fällt die Zahl der Abweichungen noch geringer aus. Zweigs Fazit: „Die Blase ist geplatzt.“ Aber eben nur, was die sehr konkrete Frage, nämlich die Suche nach einzelnen Politiker_innen und Parteien im Wahlkampf angeht, und zwar auf Basis eines nicht repräsentativen Samples freiwilliger Datenspender_innen.
Anja Zimmer, Direktorin der Auftrag gebenden Medienanstalt Berlin-Brandenburg (MABB), gab sich „nicht wirklich überrascht“ vom Ergebnis. Anders als in den USA, wo im Zeichen eines in Demokraten und Republikaner polarisierten Zweiparteiensystems im Netz die berüchtigten Filterblasen längst vorhanden seien, gebe es in Deutschland eine wesentlich vielfältigere Medienlandschaft. Dennoch bestehe „kein Anlass, sich entspannt zurückzulehnen“. Zimmer forderte in der Algorithmenfrage „mehr Transparenz“ ein. Per Gesetz könnten Intermediäre wie Google, Facebook und Co. verpflichtet werden entsprechende Informationen zur Verfügung zu stellen. „Nach welchen Kriterien wird gesucht? Wie werden Inhalte sortiert? Wieso taucht dies oder das in meiner Timeline auf?“ Die MABB-Direktorin machte sich stark für einen stärkeren Informationsaustausch zwischen Aufsichtsbehörden und Informationsintermediären.
Thomas Jarzombek, Sprecher der CDU/CSU-Bundestagsfraktion für die Digitale Agenda, bemerkte, die Meinungsmacht von Internetriesen werde dann zum Problem, „wenn sie missbraucht wird“. Im Koalitionsvertrag sei mit der SPD daher eine „Ethik-Kommission für Daten“ verabredet worden. Er plädierte in bestimmten Fällen für einen Revisionsanspruch der Betroffenen: „Wenn sich jemand durch eine Maschine benachteiligt fühlt, muss das revidiert werden.“
Das Projekt #Datenspende wurde finanziert von den Landesmedienanstalten aus Bayern (BLM), Hessen (LPR) Rheinland-Pfalz (LMK), Saarland (LMS), Sachsen (SLM) und der MABB. Kooperationspartner waren die gemeinnützige Initiative für die Kontrolle algorithmischer Entscheidungsfindung (AlgorithmWatch) und die TU Kaiserslautern.