Buhlen um Aufmerksamkeit

Foto: Fotolia/fotomek

Maschinelles Lernen mehr für journalistische Recherche nutzen

Das Internet ist in den letzten Jahren zum dominanten Nachrichten- und Informationsmedium geworden. Neben der Wirtschaft nutzt auch die Politik zunehmend Online-Kanäle zur Kommunikation mit den Bürgern. Entscheidend für den Erfolg in sozialen Medien ist, von möglichst vielen Nutzern wahrgenommen zu werden. Das führt zur Kernfrage der digitalen Aufmerksamkeitsökonomie: Wie ist es zu schaffen, Nutzern möglichst interessante und relevante Inhalte zu zeigen und dabei gleichzeitig monetäre Interessen zu optimieren.

Dabei unterscheiden sich Online-Dienste wesentlich von traditionellen Medien wie Zeitungen oder dem Fernsehen: Im Internet ist jeder potentiell ein Publizist und kann eigene Inhalte produzieren und teilen. Auf Twitter werden beispielsweise pro Sekunde ca. 10.000 neue Tweets verfasst, was fast einer Milliarde Kurznachrichten pro Tag entspricht. Dem gegenüber stehen ca. 350 Millionen aktive Nutzer des Dienstes, von denen jeder ganz persönliche Interessen hat und im Schnitt 107 anderen Nutzern folgt.

Wie gewinnt man nun die Aufmerksamkeit der Nutzer? Lautete die Antwort zu Beginn des Internet-Zeitalters noch überwiegend „Produziere interessante Inhalte und die Nutzer werden kommen.“ So sind heute fast überall Algorithmen am Werk, um diese Frage zu beantworten. Twitter beispielsweise hat sein vorher rein chronologisch organisiertes Newsfeed bereits umgestellt und nutzt nun maschinelles Lernen, um Nutzern möglichst relevante und „qualitativ hochwertige“ Tweets zu zeigen (die nicht zuletzt auch zielgerichtete Werbung beinhalten). Online-Zeitungen und Nachrichtenportale schlagen den gleichen Weg ein und schneiden Inhalte und Präsentation zunehmend passgenau auf einzelne Nutzer zu.

Das ist praktisch für uns Nutzer, kann aber auch Probleme schaffen, wenn beispielsweise Meinungsbilder verzerrt dargestellt werden. Das geschieht zum Beispiel, wenn Nachrichten-Artikel anhand ihrer Clickraten oder der Anzahl an Interaktionen sortiert werden. Dann landen meist kontroverse oder reißerische Artikel obenauf, denn diese werden am häufigsten geteilt und kommentiert. Dies führt wiederum dazu, dass Publizisten Interesse haben, solche Artikel gehäuft zu produzieren, was eine zunehmende „Extremisierung“ von Nachrichten-Inhalten zur Folge hat. Die Wahrnehmung einzelner Probleme wird verzerrt und kann auch zu einer Verstärkung von Vorurteilen und extremen Meinungen führen.

Verzerrte Meinungsbilder

Eine aktuelle Studie hat beispielsweise das Kommentarverhalten von Nutzern auf Nachrichtenseiten und sozialen Medien analysiert und gezeigt, dass in vielen Fällen weniger als 1 Prozent der Nutzer für mehr als 25 Prozent aller extremen Meinungsäußerungen verantwortlich sind. Dies ist nicht wirklich überraschend, denn bei vielen Systemen beobachtet man die gleichen mathematischen Zusammenhänge in Form von „Potenzgesetzen“ (power laws): Sortiert man beispielsweise Twitter-Nutzer nach der Anzahl ihrer verfassten Tweets, so verfassen die „oberen“ 20 Prozent bereits 84 Prozent aller Tweets. Dass ein Großteil an (Hass-)Kommentaren von einer kleinen Zahl an Nutzern stammt, ist daher nicht verwunderlich. Was verwundert ist allerdings, dass bisher kaum praktikable Ansätze existieren, um solche Verzerrungen sichtbar zu machen und sie zu korrigieren. So basieren fast alle Ranking-Algorithmen heute auf Klickraten und Aktivitätsmetriken, was dazu führt, dass extreme und oft auch falsche Inhalte sich sehr effektiv verbreiten. Sie erhitzen oft die Gemüter und werden vielfach angeklickt. Weniger extreme Nachrichten stoßen dagegen kaum auf Interesse und gehen in der Flut unter. Das interaktionsbasierte Ranking von Inhalten verstärkt sich dabei auch selbst in dem Sinne, dass Inhalte umso häufiger geteilt und geklickt werden, je mehr Nutzer vorher bereits mit ihnen interagiert haben. Genauso wie sich Kapital durch Zinseszins-Effekte immer schneller vermehrt, wird durch solche Prozesse Aufmerksamkeit in „marxistischer Art“ konzentriert und führt zu der beobachteten Verteilung.

Lebte Karl Marx in der heutigen Zeit, würde er uns vielleicht einen „Aufmerksamkeits-Kommunismus“ verordnen, welcher jedem Inhalt die gleiche Wichtigkeit einräumt und so Chancengleichheit herstellt. Dass dies ein sinnvoller und fairer Ansatz wäre, ist eher unwahrscheinlich, denn genau wie im Wirtschaftsleben sollte Qualität und Einsatz belohnt werden können, was mit einer Gleichbehandlung aller Inhalte nicht möglich ist.

Was wir brauchen sind Möglichkeiten, Aufmerksamkeit gezielt – dabei aber transparent und fair – zu steuern. Hierfür gibt es bereits einige Ansätze, die über die heute üblichen Bewertungsmethoden für Inhalte hinausgehen und Aufmerksamkeit sowie Popularität lenken können: Mögliche Techniken sind u.a. die Anwendung einfacher Korrekturfaktoren in Bewertungsalgorithmen, der Einsatz von Graphanalyse um Gruppen von Nutzern zu identifizieren, die extreme Ansichten haben oder eventuell gezielt Falschinformationen verbreiten, oder die Verwendung von maschinellem Lernen, um Textinhalte zu klassifizieren und einseitige Texte oder Hasskommentare zu identifizieren. Zusätzlich zu diesen vollständig automatisierten Verfahren ist es oft auch effektiv, Lesern oder Nutzern die Möglichkeit zu geben, kontroverse und unpassende Inhalte zu markieren und so Algorithmen (oder Menschen) bei der Erkennung zu unterstützen.

Infrastruktur für Zensur

Viele Dienste und Online-Medien nutzen diese Techniken bereits, nicht zuletzt aufgrund der kürzlich eingeführten neuen Gesetzgebung zur Eindämmung von Hasskommentaren und Falschinformationen im Internet. Leider wird dabei aktuell fast immer auf Löschung von Inhalten gesetzt. Dies ist zwar oft die einfachste Lösung für den Betreiber, führt aber zu Problemen, wenn legitime Meinungen durch automatisierte Prozesse unterdrückt werden und zudem eine Infrastruktur für Zensur geschaffen wird. Besser wäre es, wenn wir algorithmisch gestaltete Systeme schaffen, die Nutzern und Lesern helfen, kontroverse Inhalte zwar zu sehen, aber sie auch besser in einen Gesamtkontext einordnen, um ein objektiveres Meinungsbild erhalten zu können. Aktuell erlauben die allermeisten Medien keinen wirklichen Dialog. Das führt eher dazu, dass sich meinungshomogene Gruppen bilden. Hier sollten wir uns fragen, wie wir Algorithmen einsetzen können, um wirklichen Dialog zu schaffen.

Der Einsatz von Algorithmen kann auch Journalist­innen eine Vielzahl an neuen Möglichkeiten eröffnen. Datenjournalismus hat sich in den vergangenen Jahren bereits als ernsthafte Disziplin des modernen Journalismus etabliert. Hierbei werden gezielt Daten ausgewertet, um Zusammenhänge zu verdeutlichen, Argumente zu unterstützen und auch neue Erkenntnisse zu generieren. Algorithmen kommen dabei zwar schon an verschiedenen Stellen zum Einsatz, oft handelt es sich allerdings noch um relativ einfache statistische Analysen. Es bleibt abzuwarten, inwiefern sich der Datenjournalismus in naher Zukunft auch der zunehmenden Potenziale der künstlichen Intelligenz bzw. des maschinellen Lernens zunutze machen wird.

Völlig neue Recherchemethoden

Gerade bei der Analyse von sogenannten „unstrukturierten Daten“ wie Texten oder Bildern wurden in den vergangenen Jahren große Fortschritte erzielt. So können wir heute beispielsweise Algorithmen einsetzen, um Texte automatisiert zu untersuchen, wobei eine Suche jenseits einfacher Schlüsselwörter auch (in Grenzen) komplexere Zusammenhänge oder Sachverhalte aufspüren kann. Dies macht es prinzipiell möglich, Millionen Seiten von Text ganz oder teilweise automatisiert zu analysieren, was wiederum völlig neue Recherchemethoden offeriert. Die Auswertung von Video-, Ton- und Bildmaterial entwickelt sich ähnlich rasant und sollte in naher Zukunft ebenfalls Recherchen befördern, die bis vor wenigen Jahren noch undenkbar waren, etwa zur Auswertung tausender Stunden von Videos oder Tonaufzeichnungen oder zur Durchforstung und Klassifizierung von Bildarchiven mit Millionen von Fotos.

Eine Analyse hängt natürlich vom Vorhandensein und dem Zugang zu entsprechenden Datensätzen ab. Da immer mehr Bereiche unseres Lebens digitalisiert werden, wird es jedoch künftig vermutlich nicht an Datenmaterial mangeln. Journalist_innen haben hierbei aufgrund ihrer besonderen Stellung auch die Möglichkeit, im öffentlichen Interesse Daten – in Grenzen – jenseits der geltenden Datenschutznormen zu nutzen und zu analysieren. Sie können damit in der zukünftigen Datenökonomie eine zusätzliche Kontrollinstanz bilden, die Daten nutzt um Missstände aufzudecken. Datenanalyse, maschinelles Lernen und Datenethik sollten daher auch für Journalist_innen verstärkt Teil ihrer Ausbildung werden, denn nur, wenn diese verstehen, wie sie Techniken der künstlichen Intelligenz effektiv einsetzen können und welche ethischen Grenzen hierbei gelten, können sie effektiv von diesen Mitteln Gebrauch machen.

Der Journalismus der Zukunft kann einen wichtigen und guten Beitrag zur fairen und gesellschaftlich sinnvollen Nutzung von Algorithmen leisten, indem er selbst künstliche Intelligenz nutzt, den missbräuchlichen Einsatz dieser Techniken aufdeckt und positive Beispiele hervorhebt.

 

Aktuelle Studie:

https://www.heise.de/newsticker/meldung/Leaks-Rechtsextreme-manipulierten-Online-Debatten-zur-Bundestagswahl-3974798.html

 

 

 

 

 

nach oben

weiterlesen

EU: Rechte der Urheber gestärkt

Verhandlungsführer des EU-Parlaments, des Rates und der Kommission einigten sich am 13. Februar in Straßburg auf einen Reformtext des EU-Urheberrechts. Danach haften Online-Plattformen wie YouTube künftig für Urheberrechtsverletzungen. Die Einigung beinhaltet zudem ein Leistungsschutzrecht für Presseverlage. Portale wie Google News sollen künftig für das Anzeigen von Artikel-Ausschnitten Geld zahlen. ver.di begrüßt den Richtlinien-Kompromiss.
mehr »

Es darf wieder berichtet werden

„Ein Sieg für die Pressefreiheit.“ Susanne Stiefel, Chefredakteurin der Stuttgarter Wochenzeitung Kontext ist erleichtert. Das Oberlandesgericht Karlsruhe hat entschieden, dass die Zeitung den Namen des Mitarbeiters der beiden baden-württembergischen AfD-Landtagsabgeordneten Christina Baum und Heiner Merz im Zusammenhang mit rassistischen, menschenverachtenden und demokratiefeindlichen Äußerungen auf Facebook nennen darf.
mehr »

Mitgestalter der Medienzukunft

Die „Zukunft der Medien“ stand im Fokus der Bundeskonferenzen der Deutschen Journalistinnen- und Journalisten-Union (dju) und der Fachgruppe Medien in ver.di vom 8. bis zum 10. Februar in Berlin. Für die großen Herausforderungen, vor denen die Medienbranche steht, wurden klare Aufgaben der Gewerkschaft formuliert, aber auch mehr Tatkraft von der Politik eingefordert, etwa wenn es um die Zukunftsfähigkeit des öffentlich-rechtlichen Rundfunks oder die Beschneidung von Pressevielfalt durch die Verleger geht.
mehr »

In Formate gepresst und nachts gesendet

Unter dem Titel „Alles Doku oder was“ hatte es 2003 eine erste Analyse zu den dokumentarischen Programmen im deutschen Fernsehen gegeben. Die Ausdifferenzierung stand im Fokus, doch stellte Autor Fritz Wolf bereits damals eine zunehmende Formatierung von TV-Dokumentationen fest. Die Gefahr ist mitnichten gebannt, zeigt nun seine aktuelle Untersuchung. Das beklagte auch die Mehrzahl der Diskutant*innen bei der Präsentation durch AG DOK und Grimme-Institut zum Berlinale-Start am 7. Februar.
mehr »