Quellenwahl

Die Macht und Ohnmacht der Suchmaschinen

Empfehlungs- und Bewertungssysteme sind die Basis des Web 2.0. Weil die Auswahl­mechanismen stark selektiv sind, kann es jedoch zu Wirklichkeitsverzerrungen kommen, wenn Journalisten sich vornehmlich auf die Ergebnisse von Suchmaschinen verlassen. Bestimmte Websites haben nämlich keine Chance, auf die vorderen Rankingplätze zu kommen. Hinzu kommt, dass die Ergebnislisten manipulationsanfällig sind – seit einiger Zeit gibt es auch bezahlte Plätze in den Trefferlisten, allerdings gekennzeichnet.


Der Suchmaschinenbetreiber Google gilt heute als das wertvollste Medienunternehmen der Welt – gemessen an seinem Börsenwert von rund 150 Milliarden Dollar. Zu 98,9 Prozent erwirtschaftet Google seinen Umsatz mit Werbeeinnahmen, die auf personalisierten Anzeigen beruhen. Googles Erfolg basiert auf seinem Such­algorithmus, der die Reputation von Informationen in kalkulierbare Werte fasst. Indem er bei der Reihung der Ergebnisse berücksichtigt, wie oft und von wem eine Website verlinkt wurde, wertet er den Link als Empfehlung.
Journalistische Funktionen üben Suchmaschinen dann aus, wenn sie sich auf die Suche nach aktuellen Inhalten spezialisieren. GoogleNews, Yahoo!News oder MSN Newsbot stoßen in journalis­tische Bereiche hinein. Die Auswahl der Quellen bei GoogleNews kritisiert Medienwissenschaftler Marcell Machill in seinem neuen Buch „Die Macht der Suchmaschinen“ jedoch als „nebulös“ und „intransparent“. So behandelt GoogleNews etwa auch Pressemitteilungen wie aktuelle Nachrichten. Bei den AltaVista-Nachrichten und Paperball stammen nach einer Studie sogar 75 Prozent der Meldungen von nur zehn verschiedenen Angeboten. Bei Google News werden 38 Prozent von zehn Quellen gespeist.
Aber auch neue Web 2.0-Dienste stoßen mit Techniken wie RSS in den Bereich der Nachrichtenportale. Ein bekanntes Beispiel hierfür ist Diggdot.us, das Feeds von technologieorientierten Nachrichtenquellen wie Digg.com, Slashdot.org, aber auch von sozialen Bookmarkdiensten wie Del.icio.us zusammenführt. Links werden so nicht mehr allein nur von Suchmaschinen ausgewertet, sondern von vielen Nutzern.
Weitere Instrumente der Empfehlung und Bewertung im neuen Web 2.0 sind Trackbacks, Link-Listen oder so genannte Tags, die im Sinne der Selbstorganisation der Nutzer Schneisen in den Internet­dschungel schlagen. Mit einem Trackback etwa benachrichtigt ein Blogger einen anderen, dass er einen seiner Beiträge kommentiert hat. Link-Listen sind bei Nachrichtenportalen etwa Rankings mit den „meist gelesenen Nachrichten“ oder den „meist kommentierten Artikeln“, oder bei Musikportalen Playlists mit den „meist gespielten Songs“. Mit Schlagwörtern oder Tags versucht ein Nutzer, seine Inhalte zur besseren Auffindbarkeit zu klassifizieren. Kombiniert man nun die verschiedenen Tags der unterschiedlichen Surfer, lassen sich dann auch, wie etwa bei der Fototauschplattform Flickr.com, Interessensgruppen organisieren. Damit bieten Web 2.0-Dienste alternative Suchmöglichkeiten, die einen noch stärkeren Empfehlungscharakter wie herkömmliche Suchmaschinen haben. Und die klassischen Suchmaschinen des Web 1.0 stellen sich darauf ein: Del.icio.us etwa gehört seit 2006 dem Suchdienst Yahoo!.

 
nach oben

Weitere aktuelle Beiträge

Rundfunkreform mit vielen Fragezeichen

Bis zuletzt hatten die öffentlich-rechtlichen Anstalten auf ein Ende der Blockade einer Beitragserhöhung durch die Ministerpräsidenten der Länder gehofft. Die Verweigerungshaltung der Politik ließ ihnen am Ende keine Wahl: Am 19. November kündigten ARD und ZDF eine Klage beim Bundesverfassungsgericht an, um ihren Anspruch auf die von der Kommission zur Ermittlung des Finanzbedarfs (KEF) errechnete Empfehlung einer Beitragserhöhung um 58 Cent auf 18,94 Euro monatlich durchzusetzen.
mehr »

KI-Lösungen: Heise macht es selbst

Das Medienhaus „Heise Medien“ hat kürzlich das auf generative Künstliche Intelligenz (KI) spezialisierte Medienhaus „Deep Content“ (digitale Magazine „Mixed“ und „The Decoder“) aus Leipzig gekauft. Damit will Heise die Zukunft generativer KI mitgestalten. „Deep Content“ entwickelte mit „DC I/O“ ein professionelles KI-gestütztes Workflow-Framework für Content-Teams und Redaktionen. Bereits seit Juni dieses Jahres kooperiert Heise mit „Deep Content“ bei der Produktion des Podcasts „KI-Update“. Hinter der Übernahme steckt die Idee, den neuen Markt weiter zu erschließen und hohe Gewinne einzufahren.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Lokaljournalismus: Die Wüste droht

Noch sei es nicht so weit, aber von einer "Steppe" könne man durchaus schon sprechen, sagt Christian Wellbrock von der Hamburg Media School. Wellbrock ist Leiter von "Wüstenradar", einer Studie, die zum ersten Mal die bundesweite Verbreitung und zahlenmäßige Entwicklung von Lokalzeitungen in den letzten 30 Jahren unter die Lupe genommen hat. Sie erhebt, wie stark der Rückgang lokaler Medien inzwischen tatsächlich ist und warnt: In etlichen Regionen droht tatsächlich die Verbreitung von "Nachrichtenwüsten".
mehr »