Das Wahrheitsgebot steht im Pressekodex an erster Stelle. Doch in Zeiten einer digitalen Öffentlichkeit verschwimmt der Wahrheitsbegriff – weniger durch Fake News als vielmehr wegen eines fragmentierten Orientierungsrahmens bei der Einordnung der wachsenden Informationsflut. Wie können Medien nun noch ihre Aufgabe erfüllen, zum Selbstverständigungsprozess der Gesellschaft beizutragen? Darüber wurde auf der Jahrestagung des Netzwerks Medienethik in München engagiert diskutiert. Einige Schlaglichter.
Im Zentrum der Vorträge und Diskussionen stand der Begriff der „Wahrheit“, der nicht absolut als sicheres Wissen von der realen Welt, als „Stein der Weisen“, sondern immer als Ergebnis eines sozialen Erkenntnisprozesses verstanden wurde. Das funktioniere wiederum nur mit Vertrauen in Personen, Organisationen oder gesellschaftliche Übereinkünfte wie etwa Verkehrsregeln, so Philosophin Sybille Krämer. Internetethiker Charles Ess konkretisierte Wahrheit als intersubjektiv und instrumentell. Er veranschaulichte das am Beispiel von Karten: Ein Stadtplan erfülle einen anderen Zweck als ein U-und S-Bahn-Fahrplan. Jede Karte zeige aber „einen anderen Teil der Wahrheit der realen Welt.“ Dieser Wahrheit könne man sich durch mehrere Perspektiven und Quellen annähern.
Mit Transparenz gegen Grauzonen
Das Gegenteil von „Wahrheit“ wurde unterschiedlich definiert. So bezeichnete Philosophin Sybille Krämer eine Wahrheitsverfehlung als „Irrtum“. Wenn sich dahinter eine Absicht verberge, sei das eine „Lüge“. Das Reden ohne Wahrheitsbezug fasste sie als „Bullshit“. Andere sprachen hier von „Fake News“ oder folgenreiche „Wahrheitsindifferenz, verkleidet als Journalismus“, die in der Politikwissenschaft wiederum „Desinformation“ genannt wird.
Ethische und rechtliche Möglichkeiten, mit Wahrheit und Fälschung im Journalismus umzugehen, wurden aus verfassungsrechtlicher und kommunikationswissenschaftlicher Perspektive ausgelotet. Wolfgang Schulz, Jurist und Direktor des Hamburger Hans-Bredow-Instituts, beleuchtete die zunehmende „Automatisierung von Technik“ im Mediensystem – bei Recherche, aber auch Auswahl und Aufbereitung von Inhalten: „Technische Strukturen sind normativ – automatische Filterungen bestimmen schon jetzt die Grenze des Sagbaren.“ So benutze die AfD Facebook-Algorithmen, um „öffentliche Kommunikation zu verzerren.“ Die Verpflichtung der Intermediäre, d. h. Plattformen wie Facebook, zu mehr Transparenz sei eine Forderung, aber „normativ wenig hilfreich“. Er warnte vor „hektischer Regulierung“ und meinte, man könne auch darauf zielen, „Automatisierung von Technik im Bereich öffentlicher Kommunikation zu verlangsamen und zu begrenzen.“
Die ethischen Spannungen zwischen Subjektivität und Objektivitätsanspruch im Journalismus thematisierten zwei Kommunikationswissenschaftler mit Blick auf den Fall Claas Relotius. Orientierung an „äußeren Tatsachen“ unterscheide journalistische Aussagen von denen eines “Jedermann“ und „Fake News“, so der Mainzer Journalismus-Professor Tanjev Schultz, der meinte: „Objektivität ist weiterhin Merkmal journalistischer Professionalität – auch in subjektiven Darstellungsformen“. Er halte nichts von einer „Offenheit für Fiktion“, auch in eher subjektiven Formaten wie der Reportage, denn das „fördert das System Relotius“. Medienforscher Tobias Eberwein verteidigte dagegen den Erzähljournalismus, der sich an Fakten orientiere und zu ihrer Interpretation Stilmittel der Fiktion nutze – wie Metaphern, künstliche Figuren oder szenische Rekonstruktionen, die allerdings nicht frei erfunden sein dürften. Diese fiktionalen Techniken seien „Relotius zum Verhängnis geworden“, wobei sie bis zu einem gewissen Grade auch in anderen Erzählstücken des „Spiegel“ angewandt würden. Fiktion müsse transparent gemacht, für Leser*innen deutlich werden – dann sei es ethisch unproblematisch, so Eberwein.
In einem Workshop demonstrierte Bernd Oswald vom Faktenfuchs-Team des Bayerischen Rundfunks, wie sich Fake News entlarven lassen – zunächst am Beispiel einer Fake-Meldung der rechtsextremen Website AN über die Gautinger Tafel. Es sei „eine digitale Detektivarbeit, für die es kein Mastertool gebe“, aber zahlreiche Hilfsmittel etwa für Bildforensik. Bei der Suche nach Indizien für den Wahrheitsgehalt der Informationen müsse man nach wie vor die journalistischen W-Fragen stellen: Wer, was, wo, wann, womit, warum? Wie schwierig es ist, Kontext- und Materialfälschungen bei Fotos aufzudecken, demonstrierte Medienethiker Christian Schicha am Beispiel von politischen Motiven. Bildbearbeitungen müssen laut Presserat transparent gemacht werden. Andere Maßstäbe gelten allerdings für Satire und Kunst als Ausdruck von Meinungsfreiheit. Bildmanipulationen hat es immer gegeben, aber durch die Digitalisierung wurden sie „demokratisiert“, d.h. jede/r kann sie anwenden, aber auch Opfer werden. Schicha: „Den Beweis, dass ein Foto authentisch ist, kann man da fast in die Tonne kloppen.“
Gesellschaftliche Konfrontation als Machtfrage
„Der Angriff auf die Wahrheit durch ‚Fake News‘ in der digitalen Kommunikation wäre unbedenklich, wenn es sich dabei nur um Irrtümer oder konventionelle Lügen in einem weitgehend intakten Kontext rationaler Debatte handeln würde“, so die Düsseldorfer Philiosophieprofessorin Simone Dietz in ihrem Vortrag über die Rolle der großen digitalen Kommunikations-Plattformen. Sie erläuterte, wie Facebook, Instagram, YouTube und Twitter diesen Kontext der gesellschaftlichen Debatte durch ihre Monopolstellung veränderten und die öffentliche Meinungsbildung und damit auch „unseren Umgang mit Wahrheit“ beeinflussten.
Wir seien darin geübt, die Wahrheit von Aussagen kontextbezogen zu beurteilen, so Dietz. Im Zuge der gesellschaftlichen Arbeitsteilung müssten wir uns aber auch auf die Aussagen etwa von Expert*innen verlassen können. Fake News im digitalen Raum seien besonders gefährlich, weil sie in einem Umfeld auftauchten, in dem unsere eingeübten Orientierungsmuster nicht mehr funktionierten, weil die Quelle einer Nachricht oder der Kontext einer Aussage unklar bleiben.
Die behauptete inhaltliche Neutralität der global agierenden digitalen Plattformen sei falsch. Sie beschönige die Profitmaximierung und die Verweigerung, Verantwortung für die kommunizierten Inhalte zu übernehmen. Diese würden natürlich durch die vorgegebenen Kommunikationsmuster – Teilen, Liken und Vergabe von Sternchen – beeinflusst, sodass „emotionalisierte gesellschaftliche Konflikte nicht versachlicht und mit Argumenten ausgetragen werden“ könnten.
Wenn rassistische Fake News so oft weiterverbreitet werden, sei nicht „mangelnde Medienkompetenz das Problem, sondern die fehlende Bereitschaft, sich auf Wahrheitsfragen in einer rationalen Form einzulassen. Es geht um gesellschaftliche Konfrontation, aber nicht durch Argumente, sondern als Machtfrage“, analysierte Dietz: „Das ist das eigentliche Alarmzeichen!“ Auf die Frage, wie denn nun sichere Kontexte für solche Diskurse geschaffen werden könnten, antwortete sie: „Ich wünsche mir eine breite Bewegung für einen öffentlich-rechtlichen digitalen Raum, finanziert nach dem Gebührenmodell.“ Dieser solle eine Alternative bieten zu Facebook, Twitter und Co.