KI-generierte Medien kaum erkennbar

Wie kann geistiges Eigentum besser geschützt werden? Collage: Petra Dressler

KI-generierte Bilder, Texte und Audiodateien sind so überzeugend, dass Menschen diese nicht mehr von menschengemachten Inhalten unterscheiden können. Dies ist das Ergebnis einer Online-Befragung mit etwa 3.000 Teilnehmer*innen aus Deutschland, China und den USA. Es ist die erste große länderübergreifende Studie, die diese Form der Medienkompetenz überprüft hat. Die Studie des CISPA Helmholtz-Zentrum für Informationssicherheit entstand in Kooperation mit der Ruhr-Universität Bochum, der Leibniz Universität Hannover sowie der TU Berlin.

„Künstlich erzeugter Content kann vielfältig missbraucht werden“, warnte Prof. Dr. Thorsten Holz, einer der Autoren. Er stellte die Studie Ende Mai auf einer Konferenz für IT-Sicherheit in San Francisco mit vor. Vor allem mit Blick auf die anstehenden Wahlen zum EU-Parlament oder in den USA nannte Holz die automatisierte Erkennung von KI-generierten Medien eine Herausforderung für die Forschung.

Mensch oder Maschine?

Die Studienteilnehmer*innen klassifizierten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht. „Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz, sind die Unterschiede nicht sehr signifikant.“

Künftig gehe es verstärkt darum, neue Abwehrmechanismen zu entwickeln. Denn die Autoren sehen ein Risiko darin, dass vor allem KI-generierte Texte und Audio-Dateien für Social Engineering-Angriffe genutzt werden. Denkbar sei, dass die nächste Generation von Phishing-eMails direkt auf den Adressaten personalisiert ist.

Die quantitative Online-Befragung wurde schon zwischen Juni 2022 und September 2022 in China, Deutschland und den USA durchgeführt. Per Zufallsprinzip wurden die Befragten einer der drei Mediengruppen „Text“, „Bild“ oder „Audio“ zugeordnet und sahen 50 Prozent reale und 50 Prozent KI-generierte Medien. Darüber hinaus wurden sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben. 

nach oben

Weitere aktuelle Beiträge

Freie unter Honorar-Druck

Die prekären Arbeitsverhältnisse im Journalismus sind schon lange bekannt. Besonders trifft es aber freie Journalist*innen, deren Honorare sogar noch weiter sinken. Das hat auch Auswirkungen auf die Art des journalistischen Arbeitens.
mehr »

Anti-SLAPP-Gesetz ungenügend

Die Deutsche Journalistinnen- und Journalisten-Union (dju) in ver.di kritisiert das von der Bundesregierung beschlossene Anti-SLAPP-Gesetz. Es beschränke den Schutz vor Einschüchterungsklagen nur auf grenzüberschreitende Fälle. Damit bleibe ein Großteil der realen Bedrohungslagen für Journalist*innen in Deutschland unberücksichtigt.
mehr »

Inhalte brauchen Moderation

Theresa Lehmann ist Tiktok-Expertin bei der Amadeu Antonio Stiftung. Sie leitete das Modellprojekt pre:bunk, das zum Ziel hatte, Jugendliche mit Videoformaten zu Desinformation auf TikTok zu sensibilisieren. Mit M sprach sie über Regulierung, Verbote und Gefahren von Social Media.
mehr »

dju warnt: Angriffe auf Journalist*innen nehmen zu


mehr »