Googles Filterblasen sind geplatzt

„Algorithmen transparent machen: Welchen Einfluss hatte Google auf die Bundestagswahl 2017?“ – Diese Frage stand im Mittelpunkt einer im Auftrag einiger Landesmedienanstalten durchgeführten Untersuchung über die Rolle von Algorithmen bei der politischen Meinungsbildung im Internet, die in der Bayerischen Landesvertretung in Berlin vorgestellt wurde. Ergebnis: Die „Theorie“ von der Filterblase ist zwar – zunächst – geplatzt. Zur Entwarnung besteht jedoch nach Meinung von Expert_innen kein Anlass.

Ziel der Studie war es, herauszufinden, „ob und wie Suchergebnisse zu politischen Stichworten bei Google personalisiert werden“, so Projektleiterin Katharina Zweig von der TU Kaiserslautern. Hintergrund ist die seit 2011 umhergeisternde Annahme von der Existenz einer „Filterbubble“ (nach der gleichnamigen Publikation von Eli Pariser). Jeder User drückt mit seinem Klickverhalten im Netz bestimmte Vorlieben aus. Spätestens seit der Einführung eines personalisierten Suchsystems von Google hält sich hartnäckig der Verdacht, die Suchmaschine entscheide aufgrund spezifischer, intransparenter Algorithmen darüber, wer wann und wie welche Nachrichten angezeigt bekommt. Dadurch, so die Vermutung, entstehe ein so genannter Echokammer-Effekt, bei dem Gleichgesinnte unter sich blieben, mit entsprechenden Folgen für die Meinungsvielfalt in der Gesellschaft.

Die im Juli 2017 gestartete Studie basierte auf der freiwilligen „Datenspende“ von 4.384 Teilnehmer_innen, die im Untersuchungszeitraum fast sechs Millionen Suchergebnisse zu einer bestimmten Zahl von Politiker_innen und Parteien auswiesen. Die Auswertung zeigt, dass diese Ergebnisse für die Nutzer_innen wesentlich weniger personalisiert wurden als ursprünglich erwartet. Nur vier bis fünf von 20 Ergebnissen in der Liste der „Google News“ – also gerade mal ein Viertel – unterscheiden sich demnach aufgrund der Personalisierung. In der „Google“-Suche, in der alle Ergebnisse angezeigt werden, fällt die Zahl der Abweichungen noch geringer aus. Zweigs Fazit:  „Die Blase ist geplatzt.“ Aber eben nur, was die sehr konkrete Frage, nämlich die Suche nach einzelnen Politiker_innen und Parteien im Wahlkampf angeht, und zwar auf Basis eines nicht repräsentativen Samples freiwilliger Datenspender_innen.

Anja Zimmer, Direktorin der Auftrag gebenden Medienanstalt Berlin-Brandenburg (MABB), gab sich „nicht wirklich überrascht“ vom Ergebnis. Anders als in den USA, wo im Zeichen eines in Demokraten und Republikaner polarisierten Zweiparteiensystems im Netz die berüchtigten Filterblasen längst vorhanden seien, gebe es in Deutschland eine wesentlich vielfältigere Medienlandschaft. Dennoch bestehe „kein Anlass, sich entspannt zurückzulehnen“. Zimmer forderte in der Algorithmenfrage „mehr Transparenz“ ein. Per Gesetz könnten Intermediäre wie Google, Facebook und Co. verpflichtet werden entsprechende Informationen zur Verfügung zu stellen. „Nach welchen Kriterien wird gesucht? Wie werden Inhalte sortiert? Wieso taucht dies oder das in meiner Timeline auf?“ Die MABB-Direktorin machte sich stark für einen stärkeren Informationsaustausch zwischen Aufsichtsbehörden und Informationsintermediären.

Thomas Jarzombek, Sprecher der CDU/CSU-Bundestagsfraktion für die Digitale Agenda, bemerkte, die Meinungsmacht von Internetriesen werde dann zum Problem, „wenn sie missbraucht wird“. Im Koalitionsvertrag sei mit der SPD daher eine „Ethik-Kommission für Daten“ verabredet worden. Er plädierte in bestimmten Fällen für einen Revisionsanspruch der Betroffenen: „Wenn sich jemand durch eine Maschine benachteiligt fühlt, muss das revidiert werden.“


Das Projekt #Datenspende wurde finanziert von den Landesmedienanstalten aus Bayern (BLM), Hessen (LPR) Rheinland-Pfalz (LMK), Saarland (LMS), Sachsen (SLM) und der MABB. Kooperationspartner waren die gemeinnützige Initiative für die Kontrolle algorithmischer Entscheidungsfindung (AlgorithmWatch) und die TU Kaiserslautern.

nach oben

weiterlesen

Buchtipp: Social Media fördern Brandstifter

Die knallorange Warnfarbe des Buchcovers signalisiert, dass es um etwas Bedrohliches geht: die Demokratie ist in Gefahr, weil Soziale Medien Rechtsextremismus befördern. Konfliktforscher Maik Fielitz und Sozialwissenschaftler Holger Marcks analysieren, wie Rechtsextreme die Funktionsmechanismen digitaler Plattformen nutzen, um ihre faschistischen Bedrohungsmythen zu verbreiten. Sie loten Möglichkeiten zur Rettung des demokratischen Diskurses aus, etwa durch Regulierung der Techunternehmen.
mehr »

Nach 10 Jahren HbbTV: Da geht noch mehr

Seit dem Start des Hybridfernsehens HbbTV vor zehn Jahren bauen große Sendergruppen wie kleine Regionalanbieter solche Angebote kontinuierlich aus, mit umfassenden Diensten für den Nutzer und in der Hoffnung auf neue Reichweiten und zielgerichtete Werbung. Der Wettstreit zwischen Fernseh- und Online-Werbung soll endlich begraben werden. Während sich Öffentlich-Rechtliche mit sogenannten „Addressable Ads“ schwertun, sagt der kommerzielle Markt: Da ist noch mehr drin.
mehr »

Klares Signal für den Rundfunk erwartet

Der DGB-Vorsitzende Reiner Hoffmann und der ver.di-Vorsitzende Frank Werneke haben die Landtagsfraktionen in Sachsen-Anhalt gemeinsam aufgefordert, ein starkes und eindeutiges Signal für den öffentlichen-rechtlichen Rundfunk zu setzen. Die CDU im Landesparlament hatte bisher erklärt, sie wolle der erstmaligen Erhöhung der Rundfunkgebühren nach elf Jahren um 86 Cent nicht zustimmen.
mehr »

Neue Verhaltensregeln für Medien und Polizei

Der Deutsche Presserat hat der Innenministerkonferenz einen Vorschlag über zeitgemäße gemeinsame Verhaltensgrundsätze für Polizei und Medien vorgelegt. Es sei höchste Zeit, dass Journalistinnen und Journalisten bei Demonstrationen und Großveranstaltungen besser geschützt werden und ungehindert arbeiten können, erklärte Sascha Borowski, Sprecher des Deutschen Presserats, zur aktuellen Vorlage.
mehr »