Soziale Netzwerke wie Instagram oder TikTok werden mit Inhalten geflutet, die künstlich erschaffen oder manipuliert wurden. Für Nutzer*innen ist es mitunter kaum möglich zu unterscheiden, was „echt“ ist und was nicht. Waren Fälschungen in Zeiten, als generative KI nicht allgemein zugänglich war, zumeist aufwändig, lassen sich heute sekundenschnell realistisch wirkende Bilder und Videos erzeugen.
Die mit dieser Entwicklung einhergehenden Gefahren für den öffentlichen Diskurs sind vielfältig und zum Teil widersprüchlich. Einerseits gibt es Menschen, die allzu leichtgläubig für bare Münze nehmen, was sie sehen. Anderseits führt das Bewusstsein dafür, dass sich jedes auf den ersten Blick noch so überzeugend wirkende Bild als Lüge entpuppen kann, zu Misstrauen und Verunsicherung. Was soll man noch glauben?
Journalismus und Kennzeichnungspflichten
Der Journalismus hat mit dem Pressekodex seit Langem eine Selbstverpflichtung, um Transparenz herzustellen. Richtlinie 2.2 verpflichtet Medien zur Klarstellung, wenn Symbolbilder „beim flüchtigen Lesen als dokumentarische Abbildung aufgefasst werden“ könnten. Insbesondere sollen Ersatz- oder Behelfsillustrationen, symbolische Illustrationen oder sonstige Veränderungen wie Fotomontagen kennzeichnungspflichtig sein.
Die Verpflichtung stammt aus Zeiten vor der KI. Aber sie ist technikneutral formuliert. Es kommt nicht darauf an, ob ein Foto nachgestellt wurde oder aus einer KI stammt. Dies hat der Deutsche Presserat in einer Entscheidung aus Dezember 2023 ausdrücklich bestätigt. Die Zeitschrift „LISA“ wurde dafür gerügt, dass sie nicht klarstellte, dass die Bebilderung von Kochrezepten aus einer KI stammte. Zugleich erkannte der Presserat in den ebenfalls mithilfe von KI generierten Texten keinen Verstoß gegen den Pressekodex, da dieser keine Transparenzverpflichtung in Bezug auf Texte enthalte. Als freiwillige Selbstkontrolle der Medien hat der Pressekodex im Journalismus eine Bedeutung, er ist aber nicht rechtlich verbindlich.
Kennzeichnungspflichten nach dem AI-Act
Die EU setzt nun im Kampf gegen Desinformation auf die Kennzeichnung bestimmter KI-Erzeugnisse. Nutzer*innen sollen künftig erkennen können, welche Inhalte nicht „echt“ sind. Das gilt ab dem 2. August 2026 vor allem Bilder, Töne und Videos, in geringerem Maße aber auch Texte. Die Verpflichtung betrifft einerseits Anbieter*innen von KI-Systemen wie ChatGPT oder Midjourney, die in maschinenlesbarer Form kennzeichnen müssen. Andererseits müssen auch Nutzer*innen, die Inhalte generieren, bei der Veröffentlichung eine deutliche Kennzeichnung vornehmen (z.B. durch den Hinweis „KI-generiert“).
Nach Art. 50 Abs. 4 der Verordnung (EU) 2024/1689, die auch als KI-Verordnung oder AI-Act bezeichnet wird, sind Inhalte kennzeichnungspflichtig, wenn es sich um einen sogenannten Deepfake handelt. Ein solcher Deepfake liegt vor, wenn ein audiovisueller Inhalt „wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.“ Der Anwendungsbereich ist also denkbar weit gefasst. Jedes halbwegs realistische Bild oder Video, das mittels KI erstellt oder verändert wurde, wird darunterfallen.
Dabei ist noch nicht abzusehen, wo die Grenze zwischen einer einfachen „Bildoptimierung“ und kennzeichnungspflichtiger Manipulation verläuft. Schon das Entfernen von Passant*innen auf einem Foto des Brandenburger Tors wäre nach der Definition ein Deepfake. Das Foto wäre durch KI manipuliert, würde einem echten Ort ähneln und einer Person auch fälschlicherweise als echt erscheinen. Dass die Veränderung in der Sache minimal ist und genauso gut mittels Photoshop hergestellt werden könnte, ist irrelevant.
Texte sind nur dann kennzeichnungspflichtig, wenn sie ohne eine menschliche Überprüfung veröffentlicht werden. Übernimmt ein Mensch die Kontrolle und damit auch die Verantwortung für einen KI-Text, braucht es eine Kennzeichnung auch dann nicht, wenn an diesem letztlich keine Änderungen vorgenommen werden.
Löst eine Kennzeichnungspflicht das Problem?
Um es kurz zu machen: Die Kennzeichnungspflicht ist kein Allheilmittel. Sie ist nur so wirksam, wie sie tatsächlich durchgesetzt wird. Wer bewusst täuschen will, wird alles andere tun, als „mittels KI erzeugt“ auf seine Deepfakes zu schreiben. Es wird somit darauf ankommen, ob die EU den Mut hat, die großen Plattformen dazu zu zwingen, sich an europäisches Recht zu halten. Die Vergangenheit zeigt allerdings, dass hier Skepsis angebracht ist.
Hinzu kommt, dass eine Kennzeichnung dort, wo sie fehlt, auch dazu führen kann, dass Nutzer*innen sich in Sicherheit wiegen. Nicht gekennzeichnete Inhalte könnten fälschlicherweise als „echt“ angesehen werden, obwohl sie schlicht aus einer Quelle stammen, die ihrer Verpflichtung nicht nachkommt.
Langfristig braucht es drei Elemente, um den technischen Möglichkeiten der Manipulation etwas entgegenzusetzen. Regulierung, Medienkompetenz und Technik. Der AI-Act kann nur ein Baustein in einer Strategie gegen Desinformation sein. Darüber hinaus müssen Nutzer*innen befähigt werden, Inhalte kritisch zu hinterfragen. Es braucht aber auch technische Lösungen, um KI-Fakes zu erkennen und zu entfernen.

