Buhlen um Aufmerksamkeit

Foto: Fotolia/fotomek

Maschinelles Lernen mehr für journalistische Recherche nutzen

Das Internet ist in den letzten Jahren zum dominanten Nachrichten- und Informationsmedium geworden. Neben der Wirtschaft nutzt auch die Politik zunehmend Online-Kanäle zur Kommunikation mit den Bürgern. Entscheidend für den Erfolg in sozialen Medien ist, von möglichst vielen Nutzern wahrgenommen zu werden. Das führt zur Kernfrage der digitalen Aufmerksamkeitsökonomie: Wie ist es zu schaffen, Nutzern möglichst interessante und relevante Inhalte zu zeigen und dabei gleichzeitig monetäre Interessen zu optimieren.

Dabei unterscheiden sich Online-Dienste wesentlich von traditionellen Medien wie Zeitungen oder dem Fernsehen: Im Internet ist jeder potentiell ein Publizist und kann eigene Inhalte produzieren und teilen. Auf Twitter werden beispielsweise pro Sekunde ca. 10.000 neue Tweets verfasst, was fast einer Milliarde Kurznachrichten pro Tag entspricht. Dem gegenüber stehen ca. 350 Millionen aktive Nutzer des Dienstes, von denen jeder ganz persönliche Interessen hat und im Schnitt 107 anderen Nutzern folgt.

Wie gewinnt man nun die Aufmerksamkeit der Nutzer? Lautete die Antwort zu Beginn des Internet-Zeitalters noch überwiegend „Produziere interessante Inhalte und die Nutzer werden kommen.“ So sind heute fast überall Algorithmen am Werk, um diese Frage zu beantworten. Twitter beispielsweise hat sein vorher rein chronologisch organisiertes Newsfeed bereits umgestellt und nutzt nun maschinelles Lernen, um Nutzern möglichst relevante und „qualitativ hochwertige“ Tweets zu zeigen (die nicht zuletzt auch zielgerichtete Werbung beinhalten). Online-Zeitungen und Nachrichtenportale schlagen den gleichen Weg ein und schneiden Inhalte und Präsentation zunehmend passgenau auf einzelne Nutzer zu.

Das ist praktisch für uns Nutzer, kann aber auch Probleme schaffen, wenn beispielsweise Meinungsbilder verzerrt dargestellt werden. Das geschieht zum Beispiel, wenn Nachrichten-Artikel anhand ihrer Clickraten oder der Anzahl an Interaktionen sortiert werden. Dann landen meist kontroverse oder reißerische Artikel obenauf, denn diese werden am häufigsten geteilt und kommentiert. Dies führt wiederum dazu, dass Publizisten Interesse haben, solche Artikel gehäuft zu produzieren, was eine zunehmende „Extremisierung“ von Nachrichten-Inhalten zur Folge hat. Die Wahrnehmung einzelner Probleme wird verzerrt und kann auch zu einer Verstärkung von Vorurteilen und extremen Meinungen führen.

Verzerrte Meinungsbilder

Eine aktuelle Studie hat beispielsweise das Kommentarverhalten von Nutzern auf Nachrichtenseiten und sozialen Medien analysiert und gezeigt, dass in vielen Fällen weniger als 1 Prozent der Nutzer für mehr als 25 Prozent aller extremen Meinungsäußerungen verantwortlich sind. Dies ist nicht wirklich überraschend, denn bei vielen Systemen beobachtet man die gleichen mathematischen Zusammenhänge in Form von „Potenzgesetzen“ (power laws): Sortiert man beispielsweise Twitter-Nutzer nach der Anzahl ihrer verfassten Tweets, so verfassen die „oberen“ 20 Prozent bereits 84 Prozent aller Tweets. Dass ein Großteil an (Hass-)Kommentaren von einer kleinen Zahl an Nutzern stammt, ist daher nicht verwunderlich. Was verwundert ist allerdings, dass bisher kaum praktikable Ansätze existieren, um solche Verzerrungen sichtbar zu machen und sie zu korrigieren. So basieren fast alle Ranking-Algorithmen heute auf Klickraten und Aktivitätsmetriken, was dazu führt, dass extreme und oft auch falsche Inhalte sich sehr effektiv verbreiten. Sie erhitzen oft die Gemüter und werden vielfach angeklickt. Weniger extreme Nachrichten stoßen dagegen kaum auf Interesse und gehen in der Flut unter. Das interaktionsbasierte Ranking von Inhalten verstärkt sich dabei auch selbst in dem Sinne, dass Inhalte umso häufiger geteilt und geklickt werden, je mehr Nutzer vorher bereits mit ihnen interagiert haben. Genauso wie sich Kapital durch Zinseszins-Effekte immer schneller vermehrt, wird durch solche Prozesse Aufmerksamkeit in „marxistischer Art“ konzentriert und führt zu der beobachteten Verteilung.

Lebte Karl Marx in der heutigen Zeit, würde er uns vielleicht einen „Aufmerksamkeits-Kommunismus“ verordnen, welcher jedem Inhalt die gleiche Wichtigkeit einräumt und so Chancengleichheit herstellt. Dass dies ein sinnvoller und fairer Ansatz wäre, ist eher unwahrscheinlich, denn genau wie im Wirtschaftsleben sollte Qualität und Einsatz belohnt werden können, was mit einer Gleichbehandlung aller Inhalte nicht möglich ist.

Was wir brauchen sind Möglichkeiten, Aufmerksamkeit gezielt – dabei aber transparent und fair – zu steuern. Hierfür gibt es bereits einige Ansätze, die über die heute üblichen Bewertungsmethoden für Inhalte hinausgehen und Aufmerksamkeit sowie Popularität lenken können: Mögliche Techniken sind u.a. die Anwendung einfacher Korrekturfaktoren in Bewertungsalgorithmen, der Einsatz von Graphanalyse um Gruppen von Nutzern zu identifizieren, die extreme Ansichten haben oder eventuell gezielt Falschinformationen verbreiten, oder die Verwendung von maschinellem Lernen, um Textinhalte zu klassifizieren und einseitige Texte oder Hasskommentare zu identifizieren. Zusätzlich zu diesen vollständig automatisierten Verfahren ist es oft auch effektiv, Lesern oder Nutzern die Möglichkeit zu geben, kontroverse und unpassende Inhalte zu markieren und so Algorithmen (oder Menschen) bei der Erkennung zu unterstützen.

Infrastruktur für Zensur

Viele Dienste und Online-Medien nutzen diese Techniken bereits, nicht zuletzt aufgrund der kürzlich eingeführten neuen Gesetzgebung zur Eindämmung von Hasskommentaren und Falschinformationen im Internet. Leider wird dabei aktuell fast immer auf Löschung von Inhalten gesetzt. Dies ist zwar oft die einfachste Lösung für den Betreiber, führt aber zu Problemen, wenn legitime Meinungen durch automatisierte Prozesse unterdrückt werden und zudem eine Infrastruktur für Zensur geschaffen wird. Besser wäre es, wenn wir algorithmisch gestaltete Systeme schaffen, die Nutzern und Lesern helfen, kontroverse Inhalte zwar zu sehen, aber sie auch besser in einen Gesamtkontext einordnen, um ein objektiveres Meinungsbild erhalten zu können. Aktuell erlauben die allermeisten Medien keinen wirklichen Dialog. Das führt eher dazu, dass sich meinungshomogene Gruppen bilden. Hier sollten wir uns fragen, wie wir Algorithmen einsetzen können, um wirklichen Dialog zu schaffen.

Der Einsatz von Algorithmen kann auch Journalist­innen eine Vielzahl an neuen Möglichkeiten eröffnen. Datenjournalismus hat sich in den vergangenen Jahren bereits als ernsthafte Disziplin des modernen Journalismus etabliert. Hierbei werden gezielt Daten ausgewertet, um Zusammenhänge zu verdeutlichen, Argumente zu unterstützen und auch neue Erkenntnisse zu generieren. Algorithmen kommen dabei zwar schon an verschiedenen Stellen zum Einsatz, oft handelt es sich allerdings noch um relativ einfache statistische Analysen. Es bleibt abzuwarten, inwiefern sich der Datenjournalismus in naher Zukunft auch der zunehmenden Potenziale der künstlichen Intelligenz bzw. des maschinellen Lernens zunutze machen wird.

Völlig neue Recherchemethoden

Gerade bei der Analyse von sogenannten „unstrukturierten Daten“ wie Texten oder Bildern wurden in den vergangenen Jahren große Fortschritte erzielt. So können wir heute beispielsweise Algorithmen einsetzen, um Texte automatisiert zu untersuchen, wobei eine Suche jenseits einfacher Schlüsselwörter auch (in Grenzen) komplexere Zusammenhänge oder Sachverhalte aufspüren kann. Dies macht es prinzipiell möglich, Millionen Seiten von Text ganz oder teilweise automatisiert zu analysieren, was wiederum völlig neue Recherchemethoden offeriert. Die Auswertung von Video-, Ton- und Bildmaterial entwickelt sich ähnlich rasant und sollte in naher Zukunft ebenfalls Recherchen befördern, die bis vor wenigen Jahren noch undenkbar waren, etwa zur Auswertung tausender Stunden von Videos oder Tonaufzeichnungen oder zur Durchforstung und Klassifizierung von Bildarchiven mit Millionen von Fotos.

Eine Analyse hängt natürlich vom Vorhandensein und dem Zugang zu entsprechenden Datensätzen ab. Da immer mehr Bereiche unseres Lebens digitalisiert werden, wird es jedoch künftig vermutlich nicht an Datenmaterial mangeln. Journalist_innen haben hierbei aufgrund ihrer besonderen Stellung auch die Möglichkeit, im öffentlichen Interesse Daten – in Grenzen – jenseits der geltenden Datenschutznormen zu nutzen und zu analysieren. Sie können damit in der zukünftigen Datenökonomie eine zusätzliche Kontrollinstanz bilden, die Daten nutzt um Missstände aufzudecken. Datenanalyse, maschinelles Lernen und Datenethik sollten daher auch für Journalist_innen verstärkt Teil ihrer Ausbildung werden, denn nur, wenn diese verstehen, wie sie Techniken der künstlichen Intelligenz effektiv einsetzen können und welche ethischen Grenzen hierbei gelten, können sie effektiv von diesen Mitteln Gebrauch machen.

Der Journalismus der Zukunft kann einen wichtigen und guten Beitrag zur fairen und gesellschaftlich sinnvollen Nutzung von Algorithmen leisten, indem er selbst künstliche Intelligenz nutzt, den missbräuchlichen Einsatz dieser Techniken aufdeckt und positive Beispiele hervorhebt.

 

Aktuelle Studie:

https://www.heise.de/newsticker/meldung/Leaks-Rechtsextreme-manipulierten-Online-Debatten-zur-Bundestagswahl-3974798.html

 

 

 

 

 

nach oben

weiterlesen

#unteilbar: Kraftvoll und inspirierend

Als die Deutsche Journalistinnen- und Journalisten-Union (dju) in ver.di von den Organisator_innen der Bewegung #unteilbar angefragt wurde, ob wir den Aufruf für die Demonstration am 13. Oktober mit unterzeichnen würden, haben wir nicht lange gezögert: Klar – auch die Journalistinnen und Journalisten in ver.di stehen für eine offene Gesellschaft.
mehr »

Sehnsucht nach Normalität

Die Ereignisse rund um Chemnitz haben erschreckende Schlagzeilen gemacht. Nicht nur, weil sich der Rassismus in unserer Gesellschaft dort in Formen manifestierte, die man längst nicht mehr für möglich gehalten hätte. Sondern auch, weil die Pressefreiheit – mal wieder – auf dem Spiel stand. Trang Dang ist sowohl Journalistin als auch Bürgerin mit einem Migrationshintergrund. „Mein Sicherheitsgefühl ist schon seit längerem angekratzt“, sagt sie. Wie sich das auf ihre Arbeit auswirkt und warum sie sich entschieden hat, nicht nach Chemnitz zu fahren, erklärt sie im Gespräch.
mehr »

Hart und unfair: Freie verunglimpft

„Warum haben eigentlich die Besserverdiener so viele Möglichkeiten, den Staat auszutricksen?“ Dieser Frage ging „Hart aber fair“ in der ARD am Montag, dem 8. Oktober 2018 zur besten Sendezeit unter anderem nach. Vorstandmitglieder der dju in ver.di wandten sich danach an die Talkshow-Redaktion beim WDR und kritisierten, dass freie Journalist_innen pauschal zu den „Besserverdienern“ gerechnet wurden, die sich „bei der Stuererklärung – vorsichtig formuliert – unehrlich“ verhielten.
mehr »

Medienjugend sorgt sich um Pressefreiheit

„Bewegt(e) Grenzen – Raise Your Voice“ hieß vom 4. bis 7. Oktober das Motto der Jugendmedientage in Bremen. Die Pressefreiheit stand bei diesem jährlichen Höhepunkt der Jugendpresse Deutschland auf dem Bremer Unicampus im Mittelpunkt der Workshops und Diskussionen. Auch die Deutsche Journalistinnen- und Journalisten-Union dju in ver.di war wieder mit einem Infostand vertreten und informierte an den ersten beiden Tagen die medieninteressierten 250 Jugendlichen aus ganz Deutschland über Wege in den Beruf.
mehr »