Buhlen um Aufmerksamkeit

Foto: Fotolia/fotomek

Maschinelles Lernen mehr für journalistische Recherche nutzen

Das Internet ist in den letzten Jahren zum dominanten Nachrichten- und Informationsmedium geworden. Neben der Wirtschaft nutzt auch die Politik zunehmend Online-Kanäle zur Kommunikation mit den Bürgern. Entscheidend für den Erfolg in sozialen Medien ist, von möglichst vielen Nutzern wahrgenommen zu werden. Das führt zur Kernfrage der digitalen Aufmerksamkeitsökonomie: Wie ist es zu schaffen, Nutzern möglichst interessante und relevante Inhalte zu zeigen und dabei gleichzeitig monetäre Interessen zu optimieren.

Dabei unterscheiden sich Online-Dienste wesentlich von traditionellen Medien wie Zeitungen oder dem Fernsehen: Im Internet ist jeder potentiell ein Publizist und kann eigene Inhalte produzieren und teilen. Auf Twitter werden beispielsweise pro Sekunde ca. 10.000 neue Tweets verfasst, was fast einer Milliarde Kurznachrichten pro Tag entspricht. Dem gegenüber stehen ca. 350 Millionen aktive Nutzer des Dienstes, von denen jeder ganz persönliche Interessen hat und im Schnitt 107 anderen Nutzern folgt.

Wie gewinnt man nun die Aufmerksamkeit der Nutzer? Lautete die Antwort zu Beginn des Internet-Zeitalters noch überwiegend „Produziere interessante Inhalte und die Nutzer werden kommen.“ So sind heute fast überall Algorithmen am Werk, um diese Frage zu beantworten. Twitter beispielsweise hat sein vorher rein chronologisch organisiertes Newsfeed bereits umgestellt und nutzt nun maschinelles Lernen, um Nutzern möglichst relevante und „qualitativ hochwertige“ Tweets zu zeigen (die nicht zuletzt auch zielgerichtete Werbung beinhalten). Online-Zeitungen und Nachrichtenportale schlagen den gleichen Weg ein und schneiden Inhalte und Präsentation zunehmend passgenau auf einzelne Nutzer zu.

Das ist praktisch für uns Nutzer, kann aber auch Probleme schaffen, wenn beispielsweise Meinungsbilder verzerrt dargestellt werden. Das geschieht zum Beispiel, wenn Nachrichten-Artikel anhand ihrer Clickraten oder der Anzahl an Interaktionen sortiert werden. Dann landen meist kontroverse oder reißerische Artikel obenauf, denn diese werden am häufigsten geteilt und kommentiert. Dies führt wiederum dazu, dass Publizisten Interesse haben, solche Artikel gehäuft zu produzieren, was eine zunehmende „Extremisierung“ von Nachrichten-Inhalten zur Folge hat. Die Wahrnehmung einzelner Probleme wird verzerrt und kann auch zu einer Verstärkung von Vorurteilen und extremen Meinungen führen.

Verzerrte Meinungsbilder

Eine aktuelle Studie hat beispielsweise das Kommentarverhalten von Nutzern auf Nachrichtenseiten und sozialen Medien analysiert und gezeigt, dass in vielen Fällen weniger als 1 Prozent der Nutzer für mehr als 25 Prozent aller extremen Meinungsäußerungen verantwortlich sind. Dies ist nicht wirklich überraschend, denn bei vielen Systemen beobachtet man die gleichen mathematischen Zusammenhänge in Form von „Potenzgesetzen“ (power laws): Sortiert man beispielsweise Twitter-Nutzer nach der Anzahl ihrer verfassten Tweets, so verfassen die „oberen“ 20 Prozent bereits 84 Prozent aller Tweets. Dass ein Großteil an (Hass-)Kommentaren von einer kleinen Zahl an Nutzern stammt, ist daher nicht verwunderlich. Was verwundert ist allerdings, dass bisher kaum praktikable Ansätze existieren, um solche Verzerrungen sichtbar zu machen und sie zu korrigieren. So basieren fast alle Ranking-Algorithmen heute auf Klickraten und Aktivitätsmetriken, was dazu führt, dass extreme und oft auch falsche Inhalte sich sehr effektiv verbreiten. Sie erhitzen oft die Gemüter und werden vielfach angeklickt. Weniger extreme Nachrichten stoßen dagegen kaum auf Interesse und gehen in der Flut unter. Das interaktionsbasierte Ranking von Inhalten verstärkt sich dabei auch selbst in dem Sinne, dass Inhalte umso häufiger geteilt und geklickt werden, je mehr Nutzer vorher bereits mit ihnen interagiert haben. Genauso wie sich Kapital durch Zinseszins-Effekte immer schneller vermehrt, wird durch solche Prozesse Aufmerksamkeit in „marxistischer Art“ konzentriert und führt zu der beobachteten Verteilung.

Lebte Karl Marx in der heutigen Zeit, würde er uns vielleicht einen „Aufmerksamkeits-Kommunismus“ verordnen, welcher jedem Inhalt die gleiche Wichtigkeit einräumt und so Chancengleichheit herstellt. Dass dies ein sinnvoller und fairer Ansatz wäre, ist eher unwahrscheinlich, denn genau wie im Wirtschaftsleben sollte Qualität und Einsatz belohnt werden können, was mit einer Gleichbehandlung aller Inhalte nicht möglich ist.

Was wir brauchen sind Möglichkeiten, Aufmerksamkeit gezielt – dabei aber transparent und fair – zu steuern. Hierfür gibt es bereits einige Ansätze, die über die heute üblichen Bewertungsmethoden für Inhalte hinausgehen und Aufmerksamkeit sowie Popularität lenken können: Mögliche Techniken sind u.a. die Anwendung einfacher Korrekturfaktoren in Bewertungsalgorithmen, der Einsatz von Graphanalyse um Gruppen von Nutzern zu identifizieren, die extreme Ansichten haben oder eventuell gezielt Falschinformationen verbreiten, oder die Verwendung von maschinellem Lernen, um Textinhalte zu klassifizieren und einseitige Texte oder Hasskommentare zu identifizieren. Zusätzlich zu diesen vollständig automatisierten Verfahren ist es oft auch effektiv, Lesern oder Nutzern die Möglichkeit zu geben, kontroverse und unpassende Inhalte zu markieren und so Algorithmen (oder Menschen) bei der Erkennung zu unterstützen.

Infrastruktur für Zensur

Viele Dienste und Online-Medien nutzen diese Techniken bereits, nicht zuletzt aufgrund der kürzlich eingeführten neuen Gesetzgebung zur Eindämmung von Hasskommentaren und Falschinformationen im Internet. Leider wird dabei aktuell fast immer auf Löschung von Inhalten gesetzt. Dies ist zwar oft die einfachste Lösung für den Betreiber, führt aber zu Problemen, wenn legitime Meinungen durch automatisierte Prozesse unterdrückt werden und zudem eine Infrastruktur für Zensur geschaffen wird. Besser wäre es, wenn wir algorithmisch gestaltete Systeme schaffen, die Nutzern und Lesern helfen, kontroverse Inhalte zwar zu sehen, aber sie auch besser in einen Gesamtkontext einordnen, um ein objektiveres Meinungsbild erhalten zu können. Aktuell erlauben die allermeisten Medien keinen wirklichen Dialog. Das führt eher dazu, dass sich meinungshomogene Gruppen bilden. Hier sollten wir uns fragen, wie wir Algorithmen einsetzen können, um wirklichen Dialog zu schaffen.

Der Einsatz von Algorithmen kann auch Journalist­innen eine Vielzahl an neuen Möglichkeiten eröffnen. Datenjournalismus hat sich in den vergangenen Jahren bereits als ernsthafte Disziplin des modernen Journalismus etabliert. Hierbei werden gezielt Daten ausgewertet, um Zusammenhänge zu verdeutlichen, Argumente zu unterstützen und auch neue Erkenntnisse zu generieren. Algorithmen kommen dabei zwar schon an verschiedenen Stellen zum Einsatz, oft handelt es sich allerdings noch um relativ einfache statistische Analysen. Es bleibt abzuwarten, inwiefern sich der Datenjournalismus in naher Zukunft auch der zunehmenden Potenziale der künstlichen Intelligenz bzw. des maschinellen Lernens zunutze machen wird.

Völlig neue Recherchemethoden

Gerade bei der Analyse von sogenannten „unstrukturierten Daten“ wie Texten oder Bildern wurden in den vergangenen Jahren große Fortschritte erzielt. So können wir heute beispielsweise Algorithmen einsetzen, um Texte automatisiert zu untersuchen, wobei eine Suche jenseits einfacher Schlüsselwörter auch (in Grenzen) komplexere Zusammenhänge oder Sachverhalte aufspüren kann. Dies macht es prinzipiell möglich, Millionen Seiten von Text ganz oder teilweise automatisiert zu analysieren, was wiederum völlig neue Recherchemethoden offeriert. Die Auswertung von Video-, Ton- und Bildmaterial entwickelt sich ähnlich rasant und sollte in naher Zukunft ebenfalls Recherchen befördern, die bis vor wenigen Jahren noch undenkbar waren, etwa zur Auswertung tausender Stunden von Videos oder Tonaufzeichnungen oder zur Durchforstung und Klassifizierung von Bildarchiven mit Millionen von Fotos.

Eine Analyse hängt natürlich vom Vorhandensein und dem Zugang zu entsprechenden Datensätzen ab. Da immer mehr Bereiche unseres Lebens digitalisiert werden, wird es jedoch künftig vermutlich nicht an Datenmaterial mangeln. Journalist_innen haben hierbei aufgrund ihrer besonderen Stellung auch die Möglichkeit, im öffentlichen Interesse Daten – in Grenzen – jenseits der geltenden Datenschutznormen zu nutzen und zu analysieren. Sie können damit in der zukünftigen Datenökonomie eine zusätzliche Kontrollinstanz bilden, die Daten nutzt um Missstände aufzudecken. Datenanalyse, maschinelles Lernen und Datenethik sollten daher auch für Journalist_innen verstärkt Teil ihrer Ausbildung werden, denn nur, wenn diese verstehen, wie sie Techniken der künstlichen Intelligenz effektiv einsetzen können und welche ethischen Grenzen hierbei gelten, können sie effektiv von diesen Mitteln Gebrauch machen.

Der Journalismus der Zukunft kann einen wichtigen und guten Beitrag zur fairen und gesellschaftlich sinnvollen Nutzung von Algorithmen leisten, indem er selbst künstliche Intelligenz nutzt, den missbräuchlichen Einsatz dieser Techniken aufdeckt und positive Beispiele hervorhebt.

 

Aktuelle Studie:

https://www.heise.de/newsticker/meldung/Leaks-Rechtsextreme-manipulierten-Online-Debatten-zur-Bundestagswahl-3974798.html

 

 

 

 

 

nach oben

Weitere aktuelle Beiträge

Recherchen für die Demokratie

Die Uhr tickt – politisch und ökologisch. „Der Ton wird rauer, die Angriffe intensiver“, so NDR-Intendant Joachim Knuth im Begrüßungsgespräch mit Daniel Drepper, dem Vorsitzenden der Journalist*innenvereinigung Netzwerk Recherche (NR), die ihre Jahreskonferenz unter das Motto stellte: „Now is the time. Recherchen für die Demokratie“. Etwa 900 Teilnehmende trafen sich beim NDR Fernsehen in Hamburg zu Austausch und Debatte über die Rolle der Medien in Zeiten des politischen Rechtsrucks und der Klimakrise. 
mehr »

Reformstaatsvertrag: Zweifel am Zeitplan

Der Medienrechtler Dieter Dörr bezweifelt, dass es den Bundesländern gelingt, sich gemäß ihrer Planungen bis Ende Oktober auf einen Reformstaatsvertrag zum öffentlich-rechtlichen Rundfunk zu verständigen. Er halte „diesen Zeitplan, um es vorsichtig auszudrücken, für ausgesprochen optimistisch“, sagte Dörr auf M-Anfrage. Nach dem bisherigen Fahrplan sollte der Reformstaatsvertrag dann bei der Ministerpräsidentenkonferenz im Dezember 2024 unterzeichnet werden.
mehr »

Reform oder Abrissbirne im Hörfunk

Die Hängepartie um Finanzierung und Reform des öffentlich-rechtlichen Rundfunks (ÖRR) geht weiter. Nach wie vor sträuben sich ein halbes Dutzend Ministerpräsidenten, der Empfehlung der Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (KEF) für eine Beitragserhöhung um 58 Cent auf 18,94 Euro zu folgen. Bis Oktober wollen die Länder einen Reformstaatsvertrag vorlegen, um künftig über Sparmaßnahmen Beitragsstabilität zu erreichen. Einzelne ARD-Sender streichen bereits jetzt schon ihre Hörfunkprogramme zusammen.
mehr »

Filmschaffende kriegen künftig mehr

In der achten Tarifverhandlungsrunde für die rund 25.000 Filmschaffenden haben sich die Vereinte Dienstleistungsgewerkschaft (ver.di), die Schauspielgewerkschaft BFFS und die Produktionsallianz auf Eckpunkte einer vorläufigen Tarifeinigung verständigt. Doch nicht alle Verhandlungsthemen konnten geklärt werden. Die Frage nach der Regelung von Künstlicher Intelligenz (KI) im Film wurde verschoben.
mehr »