Googles Filterblasen sind geplatzt

„Algorithmen transparent machen: Welchen Einfluss hatte Google auf die Bundestagswahl 2017?“ – Diese Frage stand im Mittelpunkt einer im Auftrag einiger Landesmedienanstalten durchgeführten Untersuchung über die Rolle von Algorithmen bei der politischen Meinungsbildung im Internet, die in der Bayerischen Landesvertretung in Berlin vorgestellt wurde. Ergebnis: Die „Theorie“ von der Filterblase ist zwar – zunächst – geplatzt. Zur Entwarnung besteht jedoch nach Meinung von Expert_innen kein Anlass.

Ziel der Studie war es, herauszufinden, „ob und wie Suchergebnisse zu politischen Stichworten bei Google personalisiert werden“, so Projektleiterin Katharina Zweig von der TU Kaiserslautern. Hintergrund ist die seit 2011 umhergeisternde Annahme von der Existenz einer „Filterbubble“ (nach der gleichnamigen Publikation von Eli Pariser). Jeder User drückt mit seinem Klickverhalten im Netz bestimmte Vorlieben aus. Spätestens seit der Einführung eines personalisierten Suchsystems von Google hält sich hartnäckig der Verdacht, die Suchmaschine entscheide aufgrund spezifischer, intransparenter Algorithmen darüber, wer wann und wie welche Nachrichten angezeigt bekommt. Dadurch, so die Vermutung, entstehe ein so genannter Echokammer-Effekt, bei dem Gleichgesinnte unter sich blieben, mit entsprechenden Folgen für die Meinungsvielfalt in der Gesellschaft.

Die im Juli 2017 gestartete Studie basierte auf der freiwilligen „Datenspende“ von 4.384 Teilnehmer_innen, die im Untersuchungszeitraum fast sechs Millionen Suchergebnisse zu einer bestimmten Zahl von Politiker_innen und Parteien auswiesen. Die Auswertung zeigt, dass diese Ergebnisse für die Nutzer_innen wesentlich weniger personalisiert wurden als ursprünglich erwartet. Nur vier bis fünf von 20 Ergebnissen in der Liste der „Google News“ – also gerade mal ein Viertel – unterscheiden sich demnach aufgrund der Personalisierung. In der „Google“-Suche, in der alle Ergebnisse angezeigt werden, fällt die Zahl der Abweichungen noch geringer aus. Zweigs Fazit:  „Die Blase ist geplatzt.“ Aber eben nur, was die sehr konkrete Frage, nämlich die Suche nach einzelnen Politiker_innen und Parteien im Wahlkampf angeht, und zwar auf Basis eines nicht repräsentativen Samples freiwilliger Datenspender_innen.

Anja Zimmer, Direktorin der Auftrag gebenden Medienanstalt Berlin-Brandenburg (MABB), gab sich „nicht wirklich überrascht“ vom Ergebnis. Anders als in den USA, wo im Zeichen eines in Demokraten und Republikaner polarisierten Zweiparteiensystems im Netz die berüchtigten Filterblasen längst vorhanden seien, gebe es in Deutschland eine wesentlich vielfältigere Medienlandschaft. Dennoch bestehe „kein Anlass, sich entspannt zurückzulehnen“. Zimmer forderte in der Algorithmenfrage „mehr Transparenz“ ein. Per Gesetz könnten Intermediäre wie Google, Facebook und Co. verpflichtet werden entsprechende Informationen zur Verfügung zu stellen. „Nach welchen Kriterien wird gesucht? Wie werden Inhalte sortiert? Wieso taucht dies oder das in meiner Timeline auf?“ Die MABB-Direktorin machte sich stark für einen stärkeren Informationsaustausch zwischen Aufsichtsbehörden und Informationsintermediären.

Thomas Jarzombek, Sprecher der CDU/CSU-Bundestagsfraktion für die Digitale Agenda, bemerkte, die Meinungsmacht von Internetriesen werde dann zum Problem, „wenn sie missbraucht wird“. Im Koalitionsvertrag sei mit der SPD daher eine „Ethik-Kommission für Daten“ verabredet worden. Er plädierte in bestimmten Fällen für einen Revisionsanspruch der Betroffenen: „Wenn sich jemand durch eine Maschine benachteiligt fühlt, muss das revidiert werden.“


Das Projekt #Datenspende wurde finanziert von den Landesmedienanstalten aus Bayern (BLM), Hessen (LPR) Rheinland-Pfalz (LMK), Saarland (LMS), Sachsen (SLM) und der MABB. Kooperationspartner waren die gemeinnützige Initiative für die Kontrolle algorithmischer Entscheidungsfindung (AlgorithmWatch) und die TU Kaiserslautern.

Weitere aktuelle Beiträge

Digitalabgabe könnte Schieflage ausgleichen

Die Vereinte Dienstleistungsgewerkschaft (ver.di) begrüßt die vom Staatsminister Wolfram Weimer geäußerten Pläne für eine Digitalabgabe, die Big-Tech-Unternehmen mit digitalen Plattformdiensten in Deutschland zu entrichten hätten. Wie unter anderem der Spiegel berichtet, überlegt die Bundesregierung, eine Digitalabgabe einzuführen. Diese könnte Unternehmen wie Google und Meta dazu verpflichten, einen festen Prozentsatz ihrer Werbeeinnahmen abzuführen.
mehr »

Gleichstellungsbeauftragte im ÖRR stärken

Das Bekenntnis zur Gleichstellung im öffentlich-rechtlichen Rundfunk zeigt sich unter anderem im Vorhandensein von Gleichstellungsbeauftragten. Grundlage ist die jeweils entsprechende gesetzliche Regelung der Bundesländer, in denen die Sender angesiedelt sind. Gleichstellungsbeauftragte sollen nach dem Bundesgleichstellungsgesetz (BGleiG), die Beschäftigten vor Benachteiligungen aufgrund ihres Geschlechtes zu schützen und das Allgemeine Gleichbehandlungsgesetz durchzusetzen.
mehr »

Safer reporting: Schutzkodex auf der re:publica

Das gesellschaftliche Klima ist eines der ganz großen Themen auf der diesjährigen Digitalmesse re:publica in Berlin. Auch Journalist*innen sind zunehmend Hass und Bedrohungen ausgesetzt – bei der Recherche, auf Demos oder in sozialen Medien. Das gefährdet nicht nur die Betroffenen, sondern auch die Pressefreiheit insgesamt.  Dagegen hilft der Schutzkodex.
mehr »

Die ganz große Verweigerung

Der  öffentlich-rechtliche Rundfunk war schon immer Hassobjekt der Rechten. Auf politischer Ebene wollen sie ihn abschaffen, am Stammtisch wird gegen ARD und ZDF gehetzt. In Sozialen Medien oder in Chatgruppen geht es richtig zur Sache. Dort treffen sich sogenannte Rundfunkverweigerer. Ralf Hohlfeld und Vivian Stamer beschäftigen sich an der Uni Passau mit den Bereichen Journalistik und Strategische Kommunikation. Für ihre Studie haben sich die beiden auf die Suche nach sogenannten Rundfunkverweigerern gemacht.
mehr »