Buhlen um Aufmerksamkeit

Foto: Fotolia/fotomek

Maschinelles Lernen mehr für journalistische Recherche nutzen

Das Internet ist in den letzten Jahren zum dominanten Nachrichten- und Informationsmedium geworden. Neben der Wirtschaft nutzt auch die Politik zunehmend Online-Kanäle zur Kommunikation mit den Bürgern. Entscheidend für den Erfolg in sozialen Medien ist, von möglichst vielen Nutzern wahrgenommen zu werden. Das führt zur Kernfrage der digitalen Aufmerksamkeitsökonomie: Wie ist es zu schaffen, Nutzern möglichst interessante und relevante Inhalte zu zeigen und dabei gleichzeitig monetäre Interessen zu optimieren.

Dabei unterscheiden sich Online-Dienste wesentlich von traditionellen Medien wie Zeitungen oder dem Fernsehen: Im Internet ist jeder potentiell ein Publizist und kann eigene Inhalte produzieren und teilen. Auf Twitter werden beispielsweise pro Sekunde ca. 10.000 neue Tweets verfasst, was fast einer Milliarde Kurznachrichten pro Tag entspricht. Dem gegenüber stehen ca. 350 Millionen aktive Nutzer des Dienstes, von denen jeder ganz persönliche Interessen hat und im Schnitt 107 anderen Nutzern folgt.

Wie gewinnt man nun die Aufmerksamkeit der Nutzer? Lautete die Antwort zu Beginn des Internet-Zeitalters noch überwiegend „Produziere interessante Inhalte und die Nutzer werden kommen.“ So sind heute fast überall Algorithmen am Werk, um diese Frage zu beantworten. Twitter beispielsweise hat sein vorher rein chronologisch organisiertes Newsfeed bereits umgestellt und nutzt nun maschinelles Lernen, um Nutzern möglichst relevante und „qualitativ hochwertige“ Tweets zu zeigen (die nicht zuletzt auch zielgerichtete Werbung beinhalten). Online-Zeitungen und Nachrichtenportale schlagen den gleichen Weg ein und schneiden Inhalte und Präsentation zunehmend passgenau auf einzelne Nutzer zu.

Das ist praktisch für uns Nutzer, kann aber auch Probleme schaffen, wenn beispielsweise Meinungsbilder verzerrt dargestellt werden. Das geschieht zum Beispiel, wenn Nachrichten-Artikel anhand ihrer Clickraten oder der Anzahl an Interaktionen sortiert werden. Dann landen meist kontroverse oder reißerische Artikel obenauf, denn diese werden am häufigsten geteilt und kommentiert. Dies führt wiederum dazu, dass Publizisten Interesse haben, solche Artikel gehäuft zu produzieren, was eine zunehmende „Extremisierung“ von Nachrichten-Inhalten zur Folge hat. Die Wahrnehmung einzelner Probleme wird verzerrt und kann auch zu einer Verstärkung von Vorurteilen und extremen Meinungen führen.

Verzerrte Meinungsbilder

Eine aktuelle Studie hat beispielsweise das Kommentarverhalten von Nutzern auf Nachrichtenseiten und sozialen Medien analysiert und gezeigt, dass in vielen Fällen weniger als 1 Prozent der Nutzer für mehr als 25 Prozent aller extremen Meinungsäußerungen verantwortlich sind. Dies ist nicht wirklich überraschend, denn bei vielen Systemen beobachtet man die gleichen mathematischen Zusammenhänge in Form von „Potenzgesetzen“ (power laws): Sortiert man beispielsweise Twitter-Nutzer nach der Anzahl ihrer verfassten Tweets, so verfassen die „oberen“ 20 Prozent bereits 84 Prozent aller Tweets. Dass ein Großteil an (Hass-)Kommentaren von einer kleinen Zahl an Nutzern stammt, ist daher nicht verwunderlich. Was verwundert ist allerdings, dass bisher kaum praktikable Ansätze existieren, um solche Verzerrungen sichtbar zu machen und sie zu korrigieren. So basieren fast alle Ranking-Algorithmen heute auf Klickraten und Aktivitätsmetriken, was dazu führt, dass extreme und oft auch falsche Inhalte sich sehr effektiv verbreiten. Sie erhitzen oft die Gemüter und werden vielfach angeklickt. Weniger extreme Nachrichten stoßen dagegen kaum auf Interesse und gehen in der Flut unter. Das interaktionsbasierte Ranking von Inhalten verstärkt sich dabei auch selbst in dem Sinne, dass Inhalte umso häufiger geteilt und geklickt werden, je mehr Nutzer vorher bereits mit ihnen interagiert haben. Genauso wie sich Kapital durch Zinseszins-Effekte immer schneller vermehrt, wird durch solche Prozesse Aufmerksamkeit in „marxistischer Art“ konzentriert und führt zu der beobachteten Verteilung.

Lebte Karl Marx in der heutigen Zeit, würde er uns vielleicht einen „Aufmerksamkeits-Kommunismus“ verordnen, welcher jedem Inhalt die gleiche Wichtigkeit einräumt und so Chancengleichheit herstellt. Dass dies ein sinnvoller und fairer Ansatz wäre, ist eher unwahrscheinlich, denn genau wie im Wirtschaftsleben sollte Qualität und Einsatz belohnt werden können, was mit einer Gleichbehandlung aller Inhalte nicht möglich ist.

Was wir brauchen sind Möglichkeiten, Aufmerksamkeit gezielt – dabei aber transparent und fair – zu steuern. Hierfür gibt es bereits einige Ansätze, die über die heute üblichen Bewertungsmethoden für Inhalte hinausgehen und Aufmerksamkeit sowie Popularität lenken können: Mögliche Techniken sind u.a. die Anwendung einfacher Korrekturfaktoren in Bewertungsalgorithmen, der Einsatz von Graphanalyse um Gruppen von Nutzern zu identifizieren, die extreme Ansichten haben oder eventuell gezielt Falschinformationen verbreiten, oder die Verwendung von maschinellem Lernen, um Textinhalte zu klassifizieren und einseitige Texte oder Hasskommentare zu identifizieren. Zusätzlich zu diesen vollständig automatisierten Verfahren ist es oft auch effektiv, Lesern oder Nutzern die Möglichkeit zu geben, kontroverse und unpassende Inhalte zu markieren und so Algorithmen (oder Menschen) bei der Erkennung zu unterstützen.

Infrastruktur für Zensur

Viele Dienste und Online-Medien nutzen diese Techniken bereits, nicht zuletzt aufgrund der kürzlich eingeführten neuen Gesetzgebung zur Eindämmung von Hasskommentaren und Falschinformationen im Internet. Leider wird dabei aktuell fast immer auf Löschung von Inhalten gesetzt. Dies ist zwar oft die einfachste Lösung für den Betreiber, führt aber zu Problemen, wenn legitime Meinungen durch automatisierte Prozesse unterdrückt werden und zudem eine Infrastruktur für Zensur geschaffen wird. Besser wäre es, wenn wir algorithmisch gestaltete Systeme schaffen, die Nutzern und Lesern helfen, kontroverse Inhalte zwar zu sehen, aber sie auch besser in einen Gesamtkontext einordnen, um ein objektiveres Meinungsbild erhalten zu können. Aktuell erlauben die allermeisten Medien keinen wirklichen Dialog. Das führt eher dazu, dass sich meinungshomogene Gruppen bilden. Hier sollten wir uns fragen, wie wir Algorithmen einsetzen können, um wirklichen Dialog zu schaffen.

Der Einsatz von Algorithmen kann auch Journalist­innen eine Vielzahl an neuen Möglichkeiten eröffnen. Datenjournalismus hat sich in den vergangenen Jahren bereits als ernsthafte Disziplin des modernen Journalismus etabliert. Hierbei werden gezielt Daten ausgewertet, um Zusammenhänge zu verdeutlichen, Argumente zu unterstützen und auch neue Erkenntnisse zu generieren. Algorithmen kommen dabei zwar schon an verschiedenen Stellen zum Einsatz, oft handelt es sich allerdings noch um relativ einfache statistische Analysen. Es bleibt abzuwarten, inwiefern sich der Datenjournalismus in naher Zukunft auch der zunehmenden Potenziale der künstlichen Intelligenz bzw. des maschinellen Lernens zunutze machen wird.

Völlig neue Recherchemethoden

Gerade bei der Analyse von sogenannten „unstrukturierten Daten“ wie Texten oder Bildern wurden in den vergangenen Jahren große Fortschritte erzielt. So können wir heute beispielsweise Algorithmen einsetzen, um Texte automatisiert zu untersuchen, wobei eine Suche jenseits einfacher Schlüsselwörter auch (in Grenzen) komplexere Zusammenhänge oder Sachverhalte aufspüren kann. Dies macht es prinzipiell möglich, Millionen Seiten von Text ganz oder teilweise automatisiert zu analysieren, was wiederum völlig neue Recherchemethoden offeriert. Die Auswertung von Video-, Ton- und Bildmaterial entwickelt sich ähnlich rasant und sollte in naher Zukunft ebenfalls Recherchen befördern, die bis vor wenigen Jahren noch undenkbar waren, etwa zur Auswertung tausender Stunden von Videos oder Tonaufzeichnungen oder zur Durchforstung und Klassifizierung von Bildarchiven mit Millionen von Fotos.

Eine Analyse hängt natürlich vom Vorhandensein und dem Zugang zu entsprechenden Datensätzen ab. Da immer mehr Bereiche unseres Lebens digitalisiert werden, wird es jedoch künftig vermutlich nicht an Datenmaterial mangeln. Journalist_innen haben hierbei aufgrund ihrer besonderen Stellung auch die Möglichkeit, im öffentlichen Interesse Daten – in Grenzen – jenseits der geltenden Datenschutznormen zu nutzen und zu analysieren. Sie können damit in der zukünftigen Datenökonomie eine zusätzliche Kontrollinstanz bilden, die Daten nutzt um Missstände aufzudecken. Datenanalyse, maschinelles Lernen und Datenethik sollten daher auch für Journalist_innen verstärkt Teil ihrer Ausbildung werden, denn nur, wenn diese verstehen, wie sie Techniken der künstlichen Intelligenz effektiv einsetzen können und welche ethischen Grenzen hierbei gelten, können sie effektiv von diesen Mitteln Gebrauch machen.

Der Journalismus der Zukunft kann einen wichtigen und guten Beitrag zur fairen und gesellschaftlich sinnvollen Nutzung von Algorithmen leisten, indem er selbst künstliche Intelligenz nutzt, den missbräuchlichen Einsatz dieser Techniken aufdeckt und positive Beispiele hervorhebt.

 

Aktuelle Studie:

https://www.heise.de/newsticker/meldung/Leaks-Rechtsextreme-manipulierten-Online-Debatten-zur-Bundestagswahl-3974798.html

 

 

 

 

 

nach oben

weiterlesen

Vogelperspektive für mehr Nachhaltigkeit

„Mir fehlt die Hubschrauberperspektive im Journalismus“, so Dietrich Krauß, Redakteur der ZDF-Sendung „Die Anstalt“, jüngst beim Forum Weitblick in Berlin. In engagierten Diskussionen wurden innovative Ansätze für die Berichterstattung über Nachhaltigkeit ausgelotet – angefangen bei konstruktivem Journalismus, der Lösungen zum Problem bietet, bis zu grundsätzlicher Kritik an ökonomischen Rahmungen der Berichte, die das neoliberale System stützen.
mehr »

Steiniger Weg zur Gigabit-Gesellschaft

Es ist unbestritten: Die flächendeckende Versorgung mit Breitbandanschlüssen ist eines der wichtigsten Ziele, wenn Deutschland international wettbewerbsfähig bleiben möchte. Das war auch ein wichtiges Thema auf der „Anga Com“ in Köln, Fachmesse und Kongress für Breitband, Kabel und Satellit. Allerdings wurde einmal mehr klar: Die bisher gesteckten Ziele konnten noch nicht erreicht werden. Und der Weg hin zur Gigabit-Gesellschaft, die bis 2025 hierzulande Wirklichkeit werden soll, ist noch längst nicht geebnet.
mehr »

DGB-Filmpreis in Emden verliehen

Standing Ovations für einen zerbrechlichen 97 Jahre alten Mann bei der ausverkauften Emder Uraufführung von „Der letze Jolly Boy“ von Hans Erich Viet. Das Publikum honorierte den Film über den Ausschwitz Überlebenden Leon Schwarzbaum beim 29. Internationalen Filmfest Emden-Norderney mit dem diesjährigen DGB Filmpreis, der mit 7000 Euro dotiert ist. Regisseur Viet – ein echter Ostfriese – hat zusammen mit Filmregisseur und Schauspieler Detlev Buck an der Deutschen Film- und Fernsehakademie in Berlin studiert und mit ihm seine ersten Kurzfilme gemacht. Er war 2009 schon einmal DGB-Preisträger mit „Deutschland nervt“.
mehr »

Neugierig auf dem Weg in den Journalismus

Bei schönem Wetter fuhr sie ans Meer, zu Geburtstagen reiste sie quer durch Deutschland, zum Studieren stieg sie in Tübingen aus der Bahn: Die Zugnomadin Leonie Müller tauschte 2015 für zwölf Monate ihre Wohnung gegen eine Bahncard 100. Ihr 40-Liter-Rucksack war immer dabei. Auch zur „Fuß Fassen im Journalismus“ – Sondertour von Jugendpresse Hessen und dju in ver.di in Bad Vilbel reiste Leonie Müller mit Rucksack an.
mehr »