Die Mehrheit der Deutschen tut sich schwer, Werbung, Meinung und Fake News zuverlässig zu erkennen. Gleichzeitig bestimmen Algorithmen und Künstliche Intelligenz, welche Inhalte sichtbar werden. Das zwingt nicht nur Nutzer*innen, sondern auch Redaktionen, Medienkompetenz neu zu definieren – als gemeinsame Aufgabe für eine souveräne Öffentlichkeit.
Jeden Morgen scrollen Millionen Deutsche als Erstes durch ihre News-Apps. Zum ersten Mal ist das Internet im vergangenen Jahr für die meisten Erwachsenen die wichtigste Nachrichtenquelle, zeigt der Reuters Institute Digital News Report 2024: 42 Prozent nennen das Netz als Hauptkanal, knapp vor dem linearen Fernsehen. Das journalistische Angebot im Netz ist riesig. Die Nutzer*innen entscheiden selbst, welchen Quellen sie folgen, lassen sich von Newsfeed-Empfehlungen leiten und teilen Inhalte in sozialen Netzwerken weiter.
Doch wer entscheidet in dieser Flut? Wer entscheidet, welche Meldungen zuerst erscheinen, welche Quellen sichtbar werden und wie viel Nachricht, Meinung oder Werbung überhaupt zu sehen sind? Es sind vor allem die Algorithmen der Suchmaschinen und Plattformen, die Relevanz bestimmen und Inhalte vorsortieren. Auf Social Media verbreiten sich Nachrichten in Filterblasen und Echokammern, werden über Trends und Hashtags sichtbar. Und schließlich prägen Narrative die Wahrnehmung: Fakten werden nicht mehr nur berichtet, sondern zu Belegen für politische oder ideologische Deutungen gemacht.
Wie kann sich qualitativ hochwertiger Journalismus in diesem für die meisten undurchsichtigen Zusammenspiel von Technik, Plattformlogik und Deutungsmustern behaupten? Digitale Nachrichtenkompetenz ist dafür entscheidend.
Nachrichtenkompetenz: Deutsche schneiden schlecht ab
Wie es in Deutschland damit bestellt ist, zeigt eine repräsentative Umfrage der Stiftung Neue Verantwortung. Nur 22 Prozent der Befragten erzielten dabei hohe Werte. 46 Prozent fielen in die niedrigste Kategorie. Besonders deutlich wurden die Defizite in den Einzelaufgaben: 56 Prozent hielten ein Advertorial trotz Kennzeichnung für Information, lediglich 23 Prozent erkannten es korrekt als Werbung. Knapp ein Drittel ordnete einen Kommentar fälschlich als tatsachenorientierte Berichterstattung ein, weitere 15 Prozent waren unsicher. Auch beim Erkennen von Falschinformationen zeigten sich erhebliche Probleme: Eine gezielt platzierte Falschmeldung auf Facebook wurde nur von 43 Prozent korrekt als solche erkannt, während 33 Prozent sie für echte Information hielten. Die Ergebnisse zeigen zudem eine soziale Spaltung. Jüngere und gutgebildete schneiden deutlich besser ab. Sie können Quellen einordnen, Suchstrategien anwenden und Fakten prüfen. Ältere und formal geringergebildete tun sich damit schwerer. Auch politische Unterschiede treten auf: AfD-Anhänger*innen erreichen die niedrigsten Werte, FDP- und Grünen-Anhänger*innen die höchsten.
Diese Zahlen zeigen vor allem die Defizite auf Seiten der Nutzer*innen. Doch Medienkompetenz hat noch eine weitere Dimension. Während ein Teil der Bevölkerung Nachrichten strukturell einordnen kann, fehlt vielen das Verständnis dafür, wie Inhalte entstehen und wie sie gesteuert werden – durch redaktionelle Entscheidungen, Plattformmechanismen oder zunehmend durch Künstliche Intelligenz. Damit ist Nachrichtenkompetenz nicht nur eine Frage der Nutzerseite. Auch Journalist*innen müssen transparent machen, wie Information entsteht, um Vertrauen und Orientierung zu ermöglichen.
Die digitale Medienlandschaft zwingt nicht nur Leser*innen, sondern auch Redaktionen, ihre Kriterien zu erweitern. Neben klassischer Nachrichtenrelevanz, die auf Exklusivität, Aktualität und gesellschaftlicher Bedeutung basiert, spielt heute die algorithmische Relevanz eine mindestens genauso wichtige Rolle in der Informationsökonomie. Wird ein Thema von Suchmaschinen gefunden? Unter welchen Bedingungen geht eine Meldung viral? Wie landet ein Artikel in Google-Trends?
Antworten auf diese Fragen gibt die Suchmaschinenoptimierung (SEO). In Online-Redaktionen gehören entsprechende Tools längst zum Alltag. Sie identifizieren Keywords, messen die Performance einzelner Artikel in Echtzeit, optimieren Überschriften und zeigen, wann ein Beitrag am meisten Klicks erzielt. SEO hat die journalistische Arbeit in den vergangenen 15 Jahren spürbar verändert. Texte mussten nicht mehr nur für Menschen verständlich und attraktiv sein, sondern zugleich für die Maschine: gut strukturiert, klar gegliedert und in präziser Sprache. In vielen Redaktionen hat sich gezeigt, dass das kein Widerspruch sein muss – ein sauber geschriebener, gut strukturierter und faktenreicher Text ist meist auch SEO-tauglich.
Vom SEO-Zeitalter zum KI-Journalismus: Ein ganz neues Geschäftsmodell?
Doch jetzt ist die Künstliche Intelligenz im Newsroom angekommen. Sie lässt sich nicht mehr wegdenken und bringt neue Herausforderungen mit sich – weit über die Logik von Keywords und Klickzahlen hinaus.
Ende März führte Google die KI-Übersicht („AI Overview“) ein und stellte damit die Logik der Internetsuche um. Zuerst erscheinen kurze, KI-generierte Zusammenfassungen mit Quellen, erst danach die bekannten Linklisten. Für Verlage ist das ein Bruch im Geschäftsmodell, das auf Klicks, also Monetarisierung durch Werbung, basiert. Die Veränderung ist bereits spürbar: Eine Studie des Pew Research Center aus dem März 2025 zeigt: Wenn eine Suche keine KI-Zusammenfassung enthält, klicken 15 Prozent der Nutzer*innen auf ein Ergebnis. Mit KI-Übersicht sinkt der Wert auf 8 Prozent. Links innerhalb der Zusammenfassung werden nur von einem Prozent angeklickt. Für viele Nutzer*innen reicht die Zusammenfassung aus – für Verlage bedeutet das schlicht: weniger Geld.
Die Folge könnte eine Verschiebung hin zu mehr journalistischen Bezahlangeboten sein und damit das Risiko, dass der Zugang zu qualitativ hochwertigem Journalismus zunehmend vom Einkommen abhängt. Wer zahlt, wird dann umfassender und tiefgründiger informiert; wer nicht, bleibt auf Eilmeldungen, kurze Snippets in der Suche oder Inhalte aus sozialen Medien angewiesen. Nutzer*innen müssten also häufiger entscheiden, für welche Angebote sie Geld ausgeben – und nach welchen Kriterien sie diese Entscheidung treffen. Zählen dabei klassische journalistische Maßstäbe wie Qualität, Vertrauenswürdigkeit und Relevanz – oder wählt man zunehmend das Medium, das die eigenen Überzeugungen am besten bestätigt?
Erste Verlage haben bereits auf diese Entwicklung reagiert. In der sogenannten Premium-Gruppe (Politico, Business Insider und Welt) von Springer sollen künftig journalistischen Inhalte mithilfe von KI erstellt werden. Um Reichweite und Einnahmen zu sichern, ist Springer bereits seit 2023 Partner von OpenAI. Damit stellt sich eine grundsätzliche Frage: Erscheinen Artikel der „Bild“ oder „Welt“ in Zukunft ganz oben in KI-Antworten, weil sie objektiv relevant sind oder weil Lizenzverträge die Sichtbarkeit sichern?
Die KI-Übersicht verstärkt zudem die Tendenz zur Instantaneität (Unmittelbarkeit) im Umgang mit journalistischen Angeboten online. Das bloße Klicken auf Links zu ganzen Artikeln wird zu einer zusätzlichen Handlung, die immer weniger Menschen vornehmen. Reflexion und kritische Einordnung könnten dadurch verloren gehen.
Medienkompetenz bedeutet deshalb mehr, als Deepfakes zu erkennen oder Quellen zu prüfen. Sie heißt auch zu verstehen, wie das Informationsgeschäft funktioniert, welche ökonomischen und technischen Faktoren es prägen – und wie KI diesen Prozess verändert. Dazu gehört auch Transparenz. Das Netzwerk Recherche forderte im September 2025 in einem Positionspapier klare Regeln für den KI-Einsatz im Journalismus: „Journalist:innen sollten offenlegen, in welcher Form sie KI in ihrer Arbeit eingesetzt haben, wenn die Technologie den Inhalt wesentlich geprägt hat. Diese Transparenz sei nicht nur gute journalistische Praxis, sondern stärke das Vertrauen in die Arbeit der Redaktion.
KI und Journalismus: Medienkompetenz neu denken
Erste Schritte in dieser Richtung sind bereits sichtbar. Immer häufiger kennzeichnen Redaktionen ihre Inhalte mit Hinweisen wie „Dieser Text wurde mit Hilfe von KI erstellt“. Grundlage ist der EU-AI-Act, der ab August 2026 eine Kennzeichnungspflicht für KI-generierte Inhalte vorsieht – für Texte, Bilder oder andere Darstellungen, die nicht redaktionell geprüft wurden.
Der Springer-Verlag geht noch weiter: In einem Schreiben vom September 2025 legte das Haus seine „AI-First“-Strategie offen. Demnach ist der Einsatz von KI künftig Standard. Recherche soll mit ChatGPT oder vergleichbaren Systemen beginnen, Routinen werden automatisiert, Texte und Präsentationen durchlaufen obligatorische KI-Prüfungen. Wer keine KI nutzt, muss dies ausdrücklich begründen. Ziel sei es, Kapazitäten für Analyse und Exklusivgeschichten freizusetzen und zugleich das Geschäftsmodell auf Abos und Plattformunabhängigkeit umzustellen. Konzernchef Mathias Döpfner bezeichnete diesen Schritt als Zäsur: „Digital ist das neue Print. KI ist das neue Digital.“ Springer will so seinen Wert in fünf Jahren verdoppeln – mit tiefgreifenden Folgen für Arbeitskultur und journalistische Praxis.
Medienkompetenz wird durch KI neu definiert – und sie betrifft Leser*innen wie Journalist*innen gleichermaßen. Nutzer*innen brauchen Fähigkeiten, Quellen und Inhalte kritisch einzuordnen. Redaktionen müssen an der Einfühung von KI beteiligt werden und sie müssen transparent machen, wie sie arbeiten, offenlegen, wo KI zum Einsatz kommt. Entscheidend ist dabei, einem gängigen Vorurteil entgegenzutreten: KI-Texte sind nicht automatisch minderwertig oder bloß abgeschrieben. In manchen Redaktionen herrscht noch großes Misstrauen. So hält sich etwa das Gerücht, Google würde KI-Inhalte automatisch erkennen und im Ranking abstrafen – dafür gibt es bislang jedoch keine Belege. Entscheidend ist die Qualität: Google bewertet Inhalte nach Relevanz, Verständlichkeit und Originalität, unabhängig davon, ob sie mit oder ohne KI entstanden sind. Gefragt sind deshalb professionelle Standards und Journalist*innen, die KI souverän als Werkzeug einsetzen und ihre Ergebnisse kritisch einordnen können.
Ob KI das Vertrauen in den Journalismus schwächt oder stärkt, hängt weniger von der Technik selbst ab, sondern davon, wie kompetent und verantwortungsvoll sie genutzt wird. In den kommenden Jahren wird es daher darauf ankommen, wie sich Regeln, Geschäftsmodelle und redaktionelle Standards entwickeln – und ob wir in einer KI-getriebenen Öffentlichkeit souverän informiert bleiben.

