Wahrheitssuche in Zeiten des Internets

Professor Alexander Filipović begrüßt die Teilnehmenden der Jahrestagung des Netzwerks Medienethik Foto: Anna Futter

Das Wahrheitsgebot steht im Pressekodex an erster Stelle. Doch in Zeiten einer digitalen Öffentlichkeit verschwimmt der Wahrheitsbegriff – weniger durch Fake News als vielmehr wegen eines fragmentierten Orientierungsrahmens bei der Einordnung der wachsenden Informationsflut. Wie können Medien nun noch ihre Aufgabe erfüllen, zum Selbstverständigungsprozess der Gesellschaft beizutragen? Darüber wurde auf der Jahrestagung des Netzwerks Medienethik in München engagiert diskutiert. Einige Schlaglichter.

Im Zentrum der Vorträge und Diskussionen stand der Begriff der „Wahrheit“, der nicht absolut als sicheres Wissen von der realen Welt, als „Stein der Weisen“, sondern immer als Ergebnis eines sozialen Erkenntnisprozesses verstanden wurde. Das funktioniere wiederum nur mit Vertrauen in Personen, Organisationen oder gesellschaftliche Übereinkünfte wie etwa Verkehrsregeln, so Philosophin Sybille Krämer. Internetethiker Charles Ess konkretisierte Wahrheit als intersubjektiv und instrumentell. Er veranschaulichte das am Beispiel von Karten: Ein Stadtplan erfülle einen anderen Zweck als ein U-und S-Bahn-Fahrplan. Jede Karte zeige aber „einen anderen Teil der Wahrheit der realen Welt.“ Dieser Wahrheit könne man sich durch mehrere Perspektiven und Quellen annähern.

Mit Transparenz gegen Grauzonen

Das Gegenteil von „Wahrheit“ wurde unterschiedlich definiert. So bezeichnete Philosophin Sybille Krämer eine Wahrheitsverfehlung als „Irrtum“. Wenn sich dahinter eine Absicht verberge, sei das eine „Lüge“. Das Reden ohne Wahrheitsbezug fasste sie als „Bullshit“. Andere sprachen hier von „Fake News“ oder folgenreiche „Wahrheitsindifferenz, verkleidet als Journalismus“, die in der Politikwissenschaft wiederum „Desinformation“ genannt wird.

Marlis Prinzing moderiert die Diskussion über Wahrheit und Fälschung mit dem Juristen Wolfgang Schulz und den Kommunikationswissenschaftlern Tanjev Schultz und Tobias Eberwein (v.l.n.r.)
Foto: Netzwerk Medienethik/Anna Futter

Ethische und rechtliche Möglichkeiten, mit Wahrheit und Fälschung im Journalismus umzugehen, wurden aus verfassungsrechtlicher und kommunikationswissenschaftlicher Perspektive ausgelotet. Wolfgang Schulz, Jurist und Direktor des Hamburger Hans-Bredow-Instituts, beleuchtete die zunehmende „Automatisierung von Technik“ im Mediensystem – bei Recherche, aber auch Auswahl und Aufbereitung von Inhalten: „Technische Strukturen sind normativ – automatische Filterungen bestimmen schon jetzt die Grenze des Sagbaren.“ So benutze die AfD Facebook-Algorithmen, um „öffentliche Kommunikation zu verzerren.“ Die Verpflichtung der Intermediäre, d. h. Plattformen wie Facebook, zu mehr Transparenz sei eine Forderung, aber „normativ wenig hilfreich“. Er warnte vor „hektischer Regulierung“ und meinte, man könne auch darauf zielen, „Automatisierung von Technik im Bereich öffentlicher Kommunikation zu verlangsamen und zu begrenzen.“

Die ethischen Spannungen zwischen Subjektivität und Objektivitätsanspruch im Journalismus thematisierten zwei Kommunikationswissenschaftler mit Blick auf den Fall Claas Relotius. Orientierung an „äußeren Tatsachen“ unterscheide journalistische Aussagen von denen eines “Jedermann“ und „Fake News“, so der Mainzer Journalismus-Professor Tanjev Schultz, der meinte: „Objektivität ist weiterhin Merkmal journalistischer Professionalität – auch in subjektiven Darstellungsformen“. Er halte nichts von einer „Offenheit für Fiktion“, auch in eher subjektiven Formaten wie der Reportage, denn das „fördert das System Relotius“. Medienforscher Tobias Eberwein verteidigte dagegen den Erzähljournalismus, der sich an Fakten orientiere und zu ihrer Interpretation Stilmittel der Fiktion nutze – wie Metaphern, künstliche Figuren oder szenische  Rekonstruktionen, die allerdings nicht frei erfunden sein dürften. Diese fiktionalen Techniken seien „Relotius zum Verhängnis geworden“, wobei sie bis zu einem gewissen Grade auch in anderen Erzählstücken des „Spiegel“ angewandt würden. Fiktion müsse transparent gemacht, für Leser*innen deutlich werden – dann sei es ethisch unproblematisch, so Eberwein.

Bernd Oswald vom Bayerischen Rundfunk
Foto: Netzwerk Medienethik/Anna Futter

In einem Workshop demonstrierte Bernd Oswald vom Faktenfuchs-Team des Bayerischen Rundfunks, wie sich Fake News entlarven lassen – zunächst am Beispiel einer Fake-Meldung der rechtsextremen Website AN über die Gautinger Tafel. Es sei „eine digitale Detektivarbeit, für die es kein Mastertool gebe“, aber zahlreiche Hilfsmittel etwa für Bildforensik. Bei der Suche nach Indizien für den Wahrheitsgehalt der Informationen müsse man nach wie vor die journalistischen W-Fragen stellen: Wer, was, wo, wann, womit, warum? Wie schwierig es ist, Kontext- und Materialfälschungen bei Fotos aufzudecken, demonstrierte Medienethiker  Christian Schicha am Beispiel von politischen Motiven. Bildbearbeitungen müssen laut Presserat transparent gemacht werden. Andere Maßstäbe gelten allerdings für Satire und Kunst als Ausdruck von Meinungsfreiheit. Bildmanipulationen hat es immer gegeben, aber durch die Digitalisierung wurden sie „demokratisiert“, d.h. jede/r kann sie anwenden, aber auch Opfer werden. Schicha: „Den Beweis, dass ein Foto authentisch ist, kann man da fast in die Tonne kloppen.“

Gesellschaftliche Konfrontation als Machtfrage

„Der Angriff auf die Wahrheit durch ‚Fake News‘ in der digitalen Kommunikation wäre unbedenklich, wenn es sich dabei nur um Irrtümer oder konventionelle Lügen in einem weitgehend intakten Kontext rationaler Debatte handeln würde“, so die Düsseldorfer Philiosophieprofessorin Simone Dietz in ihrem Vortrag über die Rolle der großen digitalen Kommunikations-Plattformen. Sie erläuterte, wie Facebook, Instagram, YouTube und Twitter diesen Kontext der gesellschaftlichen Debatte durch ihre Monopolstellung veränderten und   die öffentliche Meinungsbildung und damit auch „unseren Umgang mit Wahrheit“ beeinflussten.

Wir seien darin geübt, die Wahrheit von Aussagen kontextbezogen zu beurteilen, so Dietz. Im Zuge der gesellschaftlichen Arbeitsteilung müssten wir uns aber auch auf die Aussagen etwa von Expert*innen verlassen können. Fake News im digitalen Raum seien besonders gefährlich, weil sie in einem Umfeld auftauchten, in dem unsere eingeübten Orientierungsmuster nicht mehr funktionierten, weil die Quelle einer Nachricht oder der Kontext einer Aussage unklar bleiben.

Professorin Simone Dietz aus Düsseldorf
Foto: Netzwerk Medienethik/Anna Futter

Die behauptete inhaltliche Neutralität der global agierenden digitalen Plattformen sei falsch. Sie beschönige die Profitmaximierung und die Verweigerung, Verantwortung für die kommunizierten Inhalte zu übernehmen. Diese würden natürlich durch die vorgegebenen Kommunikationsmuster – Teilen, Liken und Vergabe von Sternchen – beeinflusst, sodass „emotionalisierte gesellschaftliche Konflikte nicht versachlicht und mit Argumenten ausgetragen werden“ könnten.

Wenn rassistische Fake News so oft weiterverbreitet werden, sei nicht „mangelnde Medienkompetenz das Problem, sondern die fehlende Bereitschaft, sich auf Wahrheitsfragen in einer rationalen Form einzulassen. Es geht um gesellschaftliche Konfrontation, aber nicht durch Argumente, sondern als Machtfrage“, analysierte Dietz: „Das ist das eigentliche Alarmzeichen!“ Auf die Frage, wie denn nun sichere Kontexte für solche Diskurse geschaffen werden könnten, antwortete sie: „Ich wünsche mir eine breite Bewegung für einen öffentlich-rechtlichen digitalen Raum, finanziert nach dem Gebührenmodell.“ Dieser solle eine Alternative bieten zu Facebook, Twitter und Co.

 

nach oben

Weitere aktuelle Beiträge

Gemeinsame Standards für Medienfreiheit

In Brüssel wird der European Media Freedom Act (EMFA) bereits als "Beginn einer neuen Ära" zelebriert. Ziel der Verordnung ist es, die Unabhängigkeit und Vielfalt journalistischer Medien in der EU in vielfacher Hinsicht zu stärken. Doch wie er von den Mitgliedsstaaten  - vor allem dort, wo etwa die Pressefreiheit gefährdet ist wie Ungarn und der Slowakei - umgesetzt wird, zeigt sich erst im kommenden Sommer.
mehr »

Filmtipp: Die Saat des Heiligen Feigenbaums

Die Alten hüten die Asche, die Jungen schüren das Feuer. Konflikte zwischen den Generationen sind vermutlich so alt wie die Geschichte der Menschheit. Zumindest im Westen haben die im Rückblick als „68er-Bewegung“ zusammengefassten Proteste für tiefgreifende gesellschaftliche Umwälzungen gesorgt. Angesichts des Klimawandels könnte sich das Phänomen wiederholen. Mohammad Rasoulofs Familiendrama, deutscher „Oscar“-Kandidat, beschreibt anhand der Demonstrationen im Iran, wie sich die Alten wehren.
mehr »

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

KI-Lösungen: Heise macht es selbst

Das Medienhaus „Heise Medien“ hat kürzlich das auf generative Künstliche Intelligenz (KI) spezialisierte Medienhaus „Deep Content“ (digitale Magazine „Mixed“ und „The Decoder“) aus Leipzig gekauft. Damit will Heise die Zukunft generativer KI mitgestalten. „Deep Content“ entwickelte mit „DC I/O“ ein professionelles KI-gestütztes Workflow-Framework für Content-Teams und Redaktionen. Bereits seit Juni dieses Jahres kooperiert Heise mit „Deep Content“ bei der Produktion des Podcasts „KI-Update“. Hinter der Übernahme steckt die Idee, den neuen Markt weiter zu erschließen und hohe Gewinne einzufahren.
mehr »