Googles Filterblasen sind geplatzt

„Algorithmen transparent machen: Welchen Einfluss hatte Google auf die Bundestagswahl 2017?“ – Diese Frage stand im Mittelpunkt einer im Auftrag einiger Landesmedienanstalten durchgeführten Untersuchung über die Rolle von Algorithmen bei der politischen Meinungsbildung im Internet, die in der Bayerischen Landesvertretung in Berlin vorgestellt wurde. Ergebnis: Die „Theorie“ von der Filterblase ist zwar – zunächst – geplatzt. Zur Entwarnung besteht jedoch nach Meinung von Expert_innen kein Anlass.

Ziel der Studie war es, herauszufinden, „ob und wie Suchergebnisse zu politischen Stichworten bei Google personalisiert werden“, so Projektleiterin Katharina Zweig von der TU Kaiserslautern. Hintergrund ist die seit 2011 umhergeisternde Annahme von der Existenz einer „Filterbubble“ (nach der gleichnamigen Publikation von Eli Pariser). Jeder User drückt mit seinem Klickverhalten im Netz bestimmte Vorlieben aus. Spätestens seit der Einführung eines personalisierten Suchsystems von Google hält sich hartnäckig der Verdacht, die Suchmaschine entscheide aufgrund spezifischer, intransparenter Algorithmen darüber, wer wann und wie welche Nachrichten angezeigt bekommt. Dadurch, so die Vermutung, entstehe ein so genannter Echokammer-Effekt, bei dem Gleichgesinnte unter sich blieben, mit entsprechenden Folgen für die Meinungsvielfalt in der Gesellschaft.

Die im Juli 2017 gestartete Studie basierte auf der freiwilligen „Datenspende“ von 4.384 Teilnehmer_innen, die im Untersuchungszeitraum fast sechs Millionen Suchergebnisse zu einer bestimmten Zahl von Politiker_innen und Parteien auswiesen. Die Auswertung zeigt, dass diese Ergebnisse für die Nutzer_innen wesentlich weniger personalisiert wurden als ursprünglich erwartet. Nur vier bis fünf von 20 Ergebnissen in der Liste der „Google News“ – also gerade mal ein Viertel – unterscheiden sich demnach aufgrund der Personalisierung. In der „Google“-Suche, in der alle Ergebnisse angezeigt werden, fällt die Zahl der Abweichungen noch geringer aus. Zweigs Fazit:  „Die Blase ist geplatzt.“ Aber eben nur, was die sehr konkrete Frage, nämlich die Suche nach einzelnen Politiker_innen und Parteien im Wahlkampf angeht, und zwar auf Basis eines nicht repräsentativen Samples freiwilliger Datenspender_innen.

Anja Zimmer, Direktorin der Auftrag gebenden Medienanstalt Berlin-Brandenburg (MABB), gab sich „nicht wirklich überrascht“ vom Ergebnis. Anders als in den USA, wo im Zeichen eines in Demokraten und Republikaner polarisierten Zweiparteiensystems im Netz die berüchtigten Filterblasen längst vorhanden seien, gebe es in Deutschland eine wesentlich vielfältigere Medienlandschaft. Dennoch bestehe „kein Anlass, sich entspannt zurückzulehnen“. Zimmer forderte in der Algorithmenfrage „mehr Transparenz“ ein. Per Gesetz könnten Intermediäre wie Google, Facebook und Co. verpflichtet werden entsprechende Informationen zur Verfügung zu stellen. „Nach welchen Kriterien wird gesucht? Wie werden Inhalte sortiert? Wieso taucht dies oder das in meiner Timeline auf?“ Die MABB-Direktorin machte sich stark für einen stärkeren Informationsaustausch zwischen Aufsichtsbehörden und Informationsintermediären.

Thomas Jarzombek, Sprecher der CDU/CSU-Bundestagsfraktion für die Digitale Agenda, bemerkte, die Meinungsmacht von Internetriesen werde dann zum Problem, „wenn sie missbraucht wird“. Im Koalitionsvertrag sei mit der SPD daher eine „Ethik-Kommission für Daten“ verabredet worden. Er plädierte in bestimmten Fällen für einen Revisionsanspruch der Betroffenen: „Wenn sich jemand durch eine Maschine benachteiligt fühlt, muss das revidiert werden.“


Das Projekt #Datenspende wurde finanziert von den Landesmedienanstalten aus Bayern (BLM), Hessen (LPR) Rheinland-Pfalz (LMK), Saarland (LMS), Sachsen (SLM) und der MABB. Kooperationspartner waren die gemeinnützige Initiative für die Kontrolle algorithmischer Entscheidungsfindung (AlgorithmWatch) und die TU Kaiserslautern.

nach oben

Weitere aktuelle Beiträge

Das Netz hat ein SLOP-Problem

Künstliche Intelligenz verändert das Internet wie wir es kannten. KI dient als Beschleuniger von immer neuen Inhalten. Nicht immer entstehen auf diese Weise sinnvolle Inhalte. AI Slop, also digitaler Müll, flutet das Netz. Und KI geht nicht mehr weg. Denn KI-Modelle, finden sich inzwischen an allen möglichen und unmöglichen Stellen des privaten und beruflichen Lebens.
mehr »

Aktionstag für digitale Souveränität

Persönliche Daten sind eine Ware – und wir liefern sie freiwillig an große Technologiekonzerne. Doch was wäre, wenn es auch anders ginge? Eine neue Initiative ruft zum Digitalen Unabhängigkeitstag auf und wirbt für einen Ausstieg aus der digitalen Abhängigkeit.
mehr »

Big Tech verändert TV und Streaming

Bei den Video-Streaming-Plattformen verteidigte YouTube im Jahr 2025 erfolgreich seine Führungsposition und erreicht 72 Prozent der deutschen Bevölkerung ab 14 Jahren. Die öffentlich-rechtlichen Streaming-Netzwerke von ARD, ZDF, Arte und 3sat kommen auf über 60 Prozent, dicht gefolgt von Netflix und Amazon Prime Video. Doch auch die Sender des ÖRR nutzen YouTube als Ausspielweg ihrer Inhalte. 
mehr »

Smartphones endlich sicherer machen

Als Journalist*innen sind wir verpflichtet, unsere Quellen zu schützen. Wir treffen sie an vertraulichen Orten, anonymisieren Namen, schreddern Unterlagen. Aber was ist mit unseren Smartphones? Während niemand die eigene Haus- oder Bürotür über Nacht offenstehen lassen würde, öffnen wir digital oft ungewollt Tür und Tor zu den sensibelsten Bereichen: Acht Tipps für Datensicherheit bei Smartphones
mehr »