Damit falsche, gefährliche oder hasserfüllte Inhalte das Internet nicht überschwemmen, wollen sich Plattformen und Politik auf gemeinsame Regeln einigen. Strittig ist, welche das genau sein und wie sie umgesetzt werden sollen. Um die Verantwortung von Facebook, Twitter, TikTok, Instagram und Co. für verbreitete Inhalte geht es schon länger. Als jedoch Gerüchte, Falschinformationen und gezielte Fake News über das Coronavirus zunahmen, wurde das Thema politisch brisanter.
Im Zusammenhang mit Posts oder Tweets um Corona warnt die EU seit Monaten vor einer „massiven Infodemie“. Der Begriff Infodemie wurde kürzlich von der Weltgesundheitsorganisation (WHO) als „Überfluss an teils akkuraten und teils unrichtigen Informationen“ definiert. Die Masse an Informationen mache es den Menschen schwer, vertrauenswürdige Quellen und verlässliche Orientierungshilfe zu finden.
„Wir wollen nicht zu den Schiedsrichtern der Wahrheit werden. Das wäre eine schlechte Position für uns und nicht das, was wir tun sollten“, sagte Facebook-Gründer Mark Zuckerberg mitten in der der Pandemie im Mai. Wer also soll in Zukunft dafür sorgen, dass soziale Medien nicht das Sammelbecken für Hassreden und Falschinformationen werden?
Aktionsplan und Selbstverpflichtungen
Bereits 2018 hatte die Europäische Kommission einen Aktionsplan gegen Desinformation veröffentlicht. Damals ging es vor allem um die mögliche Beeinflussung der Öffentlichkeit bei Wahlen. Die großen Social-Media-Plattformen hatten sich daraufhin selbst verpflichtet, aktiv gegen die Verbreitung von Desinformation vorzugehen. Mehrere Unternehmen – darunter Facebook, Google und Twitter – sicherten im Oktober 2018 mit einer Selbstverpflichtungserklärung umfassende Maßnahmen zur Bekämpfung von Desinformation zu. Doch ziehen Twitter, Instagram und Facebook gegen Fake News offenbar nur selten Konsequenzen.
„Die Plattformen müssen mehr tun“, verlangte EU-Kommissions-Vize Věra Jourová. Im Juni forderte die EU von den sozialen Netzwerken die Herausgabe monatlicher Berichte über das Aufkommen von Desinformation und ihr Vorgehen dagegen. „Um diese Desinformationen zu bekämpfen, müssen wir alle relevanten Akteure von Online-Plattformen bis hin zu Behörden mobilisieren und unabhängige Faktenprüfer und Medien unterstützen“, so Jourová.
In einem Gutachten im Auftrag der EU-Kommission stellen vier bundesdeutsche Landesmedienanstalten fest, dass Plattformen wie Facebook, Twitter und Google ihre gegenüber der Europäischen Union abgegeben Selbstverpflichtungen nicht einhalten. Die bisherige Selbstregulierungspraxis der Plattformen wird weder als effektiv noch als verhältnismäßig eingestuft. Beim Thema Antisemitismus etwa verbiete es Facebook, den Massenmord an den europäischen Juden zu verteidigen oder gutzuheißen, ebenso dürfe man sich nicht über Holocaust-Überlebende lustig machen oder behaupten, es handele sich um Lügner. Dass eine Aussage nicht wahr sei, sei noch kein ausreichender Grund für eine Löschung – und das gelte auch für die Leugnung des Holocausts, räumte eine Facebook-Sprecherin allerdings dem britischen „Guardian“ gegenüber ein. Überlebende appellierten deshalb an Zuckerberg.
Klare Aufteilung: Vorgaben, Umsetzung, Kontrolle
Zwar wird schon gelöscht. Von April bis Juni seien mehr als sieben Millionen Beiträge mit falschen oder gefährlichen Informationen zum Coronavirus von der Plattform genommen worden. Rund 98 Millionen harmlosere Inhalte mit zweifelhaften Informationen seien mit Warnhinweisen versehen worden, heißt es in einem aktuellen Bericht des Unternehmens. Facebook räumte aber auch ein, dass es bei fragwürdigen Corona-Beiträgen schwieriger sei einzugreifen, da das Problem bislang nicht von automatisierter Software erkannt würde. Dafür seien menschliche Prüferinnen und Prüfer nötig.
Im Rahmen eines Berichts des Londoner „Center for Countering Digital Hate“ wurden 649 fehlerhafte oder irreführende Beiträge rund um das Coronavirus über den üblichen Weg an Facebook, Instagram und Twitter gemeldet. Nur 10 Prozent der kritischen Inhalte seien von Facebook entfernt, zwei Prozent mit einem entsprechenden Hinweis versehen worden. Noch weniger Reaktionen zeigte Twitter: Hier wurden lediglich bei drei Prozent der 179 gemeldeten Tweets Maßnahmen ergriffen. Ob die Plattformen genug für die Kontrolle der Inhalte tun, kann also noch immer als fraglich gelten.
Das Gutachten der Landesmedienanstalten kommt zu dem Schluss, dass die Gestaltung des demokratischen Medienraums nicht der Industrie überlassen werden könne. Die Position des Unparteiischen will auch Tobias Schmid, Direktor der nordrhein-westfälischen Landesanstalt für Medien, den Social-Media-Unternehmen nicht überlassen. Er sieht für die Regulierung von Inhalten vor allem die Legislative in der Verantwortung: „Hier ist der Gesetzgeber gefragt: Es steht in seiner Verantwortung, für uns alle diese gesellschaftlich relevanten Fragen zu beantworten. Die Aufgabe der Industrie ist es, diese Vorgaben umzusetzen und die der Aufsicht – also unsere –, ihre Einhaltung zu überwachen,“ meint Schmid.