Deepfakes – täuschend echt

Manipulationen des öffentlichen Lebens werden leichter durch künstliche Intelligenz

Was geschieht mit der Gesellschaft, wenn wir vertrauenswürdigen Menschen nicht mehr vertrauen können? Wenn wir grundsätzlich davon ausgehen müssen, dass alles, was wir von bekannten Menschen hören und sehen, Fake ist? Die Wissenschaft hält täuschend echt manipulierte Videos (Deepfake) für ein weit unterschätztes Problem. Dabei begegnen sie uns bereits fast täglich.

Es muss Humor ganz nach dem Geschmack des russischen Präsidenten Wladimir Putin gewesen sein. Demokratisch gewählte Politiker in den Staaten der EU werden vorgeführt. Unter den Namen „Vovan“ und „Lexus“ kennen die Zuschauer*innen des russischen Fernsehens jene zwei Gesichter, die als Comedians hinter den Videocalls des vermeintlichen Kiewer Bürgermeisters Vitali Klitschko stecken sollen. Mit bürgerlichem Namen heißen sie Wladimir Krasnov und Alexei Stolyarov. Ihre gefakten Anrufe bei den drei europäischen Stadtoberhäuptern in Wien, Berlin und Madrid zählen inzwischen zu den bekanntesten Vorfällen von Deepfake in Europa. „Ich will nicht verraten, wie wir es angestellt haben, aber es war leicht“, sagte Video-Faker Stolyarov in einem Telefonat mit dem ARD-Politikmagazin „Kontraste“. Eine „Leichtigkeit“, die inzwischen zum Problem, für Wirtschaft, Politik und Gesellschaft wächst.

Gefakter Klitschko spricht mit Berliner Bürgermeisterin Giffey Screenshot: Senatskanzlei Berlin

Deepfakes sind täuschend echt wirkende, manipulierte Videoaufnahmen, die mit Hilfe künstlicher Intelligenz erzeugt werden. Als Instrument zur Verbreitung von Fakenews sind Deepfakes zwar relativ neu, an der Technologie dahinter wird allerdings schon seit längerem gearbeitet. „Die ersten öffentlichen Beispiele sind Ende des letzten Jahrzehnts erschienen“, sagt Prof. Martin Steinebach, Leiter Abteilung Media Security und IT Forensics am Fraunhofer SIT. „Etwa 2017/ 2018 gab es nur die ersten Fälle von Deepfake Videos, die dann zunächst im Bereich der Erotik und Pornografie eingesetzt wurden.“ In der ersten großen Welle von Deepfakes traten primär erotische Videos von bekannten Schauspielerinnen zu tage. Dabei ging es nicht immer um die Absicht der maximalen Erniedrigung, oft standen auch Fans dahinter, die ihre angebeteten Hollywoodgrößen in einem sexualisierten Umfeld sehen wollten“, fasst Steinebach zusammen.

Politischer wurde es dann ab 2020, als immer stärker Manipulationen des öffentlichen Lebens ans Licht der Öffentlichkeit gerieten. „Sowohl vor der US-Wahl 2020 als auch bei der Bundestagswahl 2021 in Deutschland wurde zunehmend lauter vor der Gefahr für das öffentliche Leben durch solche Deepfakes gewarnt,“ so Steinebach weiter. Die blieben zu jenem Zeitpunkt zwar noch aus, erste simple Versuche zeichneten sich jedoch vor zwei Jahren ab, als eine Rede der US-Demokratin Nancy Pelosi in einem veröffentlichten Video in so reduzierter Geschwindigkeit abgespielt wurde, als wäre sie betrunken.

Tools leicht zu bekommen

Die Angst vor dem, was Deepfake alles kann, liegt jedoch in einem 2018 vorgelegten Deepfake Show Case des US-Schauspielers und Regisseurs Jordan Peele. In einem 70-sekündigen Clip benennt der vermeintliche, ehemalige US-Präsident Barack Obama seinen Nachfolger Donald Trump einen totalen Vollidioten. („A total and complete dipshit“). Die dazu benutzten Tools sind inzwischen bekannt und erschreckend leicht am Markt zu bekommen: die Software Adobe After Effects und FakeApp. FakeApp entwickelte sich seither weiter, nutzt eine selbstlernende KI, um fremde Gesichter noch authentischer auf Personen in Bewegtbildern zu legen.

Was zu jener Zeit aber noch Produkte von Künstlergruppen waren nach dem Motto: „Schaut her, was wir alles können“, wurde im Zuge des Ukraine-Krieges zur politischen Waffe.„Wir sehen nun ganz starke Belege dafür, dass Meinungsmanipulation und politische Einflussnahme tatsächlich auch mit Deepfakes durchgeführt werden“, beobachtet Steinebach. Zwei Inszenierungen im Zusammenhang mit dem russischen Krieg gegen die Ukraine sind inzwischen bekannt. Der erste war ein Frontalangriff, dafür wurde die Webseite des ukrainischen Nachrichtensenders ‚Ukraine24‘ gehackt. Auf der Startseite ruft ein vermeintlicher ukrainischer Präsident Wolodymyr Selenskyj zur Kapitulation seiner Streitkräfte auf. Dieser Fake wurde am Körperbau erkannt, erklärt Steinebach. Die Person, die Selenskyj nachgestellt hat, war einfach ein bisschen zu muskulös und hatte breitere Schultern.

Vermeintlicher Präsident Selenskyj ruft zur Kapitulation auf Screenshot: Inside Edition

Das zweite bekannte Deepfake-Produkt des Krieges soll den russischen Präsidenten Putin zeigen, der den Sieg über die Ukraine verkündet. Dieses Video musste anhand anderer Kriterien entlarvt werden. So wurde eine bekannte Rede von ihm benutzt, in der im Video ein paar Handbewegungen nicht verändert worden waren. „Man sieht ganz typische Abfolgen von Handbewegungen, die auch im Originalvideo zu sehen waren. Erst daran konnte man den Fake feststellen, denn insgesamt war das Video ziemlich gut gemacht“, so Steinebach.

Die daraus resultierenden Gefahren für Demokratie und Gesellschaft werden inzwischen weltweit erforscht. Der Tenor der Forschung ist weitgehend identisch: „Ich sehe deutliche Gefahren, nicht nur für die Wirtschaft, vor allem auch für die demokratische Gesellschaft“, sagt Martin Boyer, Senior Research Engineer im Center for Digitaly Safety & Securtiy am AIT Austrian Institute of Technology in Wien. Projektziel: Stärkung der Resilienz gegen Fake News und Desinformation. Auch er verweist auf die inzwischen frei verfügbaren Tools im Internet, inklusive Anleitungen. Das bedeute, dass nun sehr viel mehr Leute in die Lage versetzt werden, davon Gebrauch zu machen. „Stellen Sie sich eine Online-Partnerbörse vor, von denen es unzählige im Netz gibt, und es meldet sich der Partner oder die Partnerin Ihrer Träume. Die Person entspricht exakt Ihren Vorstellungen und sagt Ihnen die wunderbarsten Dinge. Am Ende fließt Geld, Ihr Geld“, so Boyer.

Eigenes Gesicht im fremden Video

Das Rezept wurde „demokratisiert“ und steht inzwischen weiten Kreisen der Mediennutzer zur Verfügung. Apps zum Herunterladen machen es möglich, auf einfachen oder auf professionellen Wegen. So lassen sich auch mit simplen Apps wie „Re-Face“ die eigenen Gesichter über fremde Videos legen und den Nutzer als König auf dem Thron, hübsche Prinzessin beim Tanzen oder als muskelbepackter Wrestler im Ring gut aussehen. Die Social Media Welt ist bereits voll mit solchen Videoschnipseln. Die Technologie, mit der man auf politischer Ebene inzwischen Kriege auslösen kann, ist beim Endverbraucher angekommen. So sind Deepfakes auch ein Geschäftsmodell, dass ohne Hürden genutzt werden kann.

Was aber vor allem nach einem lukrativen Geschäftsmodell für IT-versierte Betrüger klingt, gibt es in der Unterhaltungsbranche schon länger. Hollywood und alle großen Filmstudios der Welt arbeiten seit Jahren mit genau jener Technologie. Ganze Filme entstehen inzwischen mehr am Rechner, als vor der Kamera. Bekannte Blockbuster wie Avatar wären ohne die Tricks der puren Video-Manipulation nicht möglich gewesen.

Was vor 15 Jahren noch aufwändig manuell hergestellt wurde, erledigen heute schnelle Prozessoren. „Für die Filmstudios ist das sehr attraktiv, zu wissen, dass man in einem neuen Star Wars-Film einen Rückblick auf die Jugend von Luke Skywalker herstellen kann. Der Schauspieler ist halt nicht mehr so jung wie damals, auch die Grenzen der Maskenbildner sind schnell erreicht. Aber mit alten Aufnahmen des Schauspielers und einem jungen Köper eines anderen Schauspielers, der so etwa dem seines Kollegen von vor 50 Jahren entspricht, haben sie ein perfektes Deepfake Video“, so Steinebach.

Die Vorzüge von Deepfakes werden genutzt, auch die möglichen schweren Schattenseiten sind bekannt. Umso mehr erstaunt es, dass die Gefahren gerade für die Wirtschaft noch nicht überall adäquat als solche behandelt werden. In einer von YouGov durchgeführten Umfrage in der Branche weiß zwar knapp die Hälfte (45%), was ein Deepfake ist, allerdings erkennen nur sieben Prozent darin eine Gefahr für das eigene Unternehmen. 51 Prozent meinen, einen Deepfake selbst erkennen zu können. Deshalb finden dazu auch kaum Sicherheitstrainings statt. 29 Prozent setzen auf technologische Erkennungsmöglichkeiten.

Inzwischen ruft die Bundesregierung die Bürger zum Selbstschutz auf und gibt drei Ratschläge: „Sorgen Sie für gute (Bild-)Qualität! Achten Sie auf die Mimik der Person! Prüfen Sie die Quelle!“ Kurzum: Journalistisches Handwerk wird inzwischen auch dem Medienkonsumenten abverlangt. Andere Staaten sind da etwas weiter. In Österreich etwa hat die Justizministerin Alma Zadi einen Aktionsplan gegen Deepfakes vorgelegt. Und auch die EU ist in diesem Bereich bereits tätig, sieht die großen Plattformen in der Bringschuld. Der Digital Services Act, auf den sich Rat und Europäisches Parlament im Sommer geeinigt haben, sieht Verpflichtungen für große Online-Plattformen vor, jährlich eine Risikoeinschätzung vorzunehmen. Es gelte, Risiken zu minimieren, die unter anderem auch durch Manipulation der Dienste entstehen, z.B. wenn es systemische Risiken mit Auswirkungen auf Wahlen, auf die öffentliche Sicherheit und auf den Diskurs der Zivilgesellschaft gibt. Solche erkannten Risiken sollten unter anderem klar gekennzeichnet werden.

Experten auf Spurensuche

Noch ist es durchaus möglich, Deepfake-Videos als solche zu erkennen, allerdings reicht das normale Auge nicht mehr, es braucht Experten, oft ist Handarbeit gefragt. „Es ist nicht so, dass man da eine App hat und da kommt dann einfach eine Warnung vor Deepfake. Spezialisten müssen das weitgehend interpretieren und nach Spuren suchen“, sagt Steinebach. Und auch die Deepfaker verfeinern ihre Techniken in großen Schritten. So ist es aktuell nur schwer möglich, auch Stimmen professionell zu fälschen. „Das klingt oft noch ein bisschen blechern, aber auch daran wird gearbeitet.“ Was derzeit noch Stimmimitatoren leisten müssen, übernehmen in Kürze die Rechner.

Ein unterschätztes Problem von Deepfake sieht die Wissenschaft übrigens an ganz anderer Stelle, im realen Leben. „Alles, was für eine Politikerin oder einen Politiker oder andere Personen negative Konsequenzen haben kann, kann er mit der Begründung, das habe sie oder er nicht gesagt, als ‚Deepfake‘ von sich weisen“, heißt es vom Frauenhofer Institut. Aussagen auf Videos, die einem nachträglich auf die Füße fallen, werden zu Deepfake erklärt. Man behauptet einfach, das sei eine Fälschung. Klingt nach düsterer Zukunft? Nein, auch das ist schon da. Steinebach: „Das passiert immer wieder. Und bei Donald Trump war das ja schon fast ein Reflex bei unliebsamen Aussagen“.

 

 

nach oben

Weitere aktuelle Beiträge

Lokaljournalismus: Die Wüste droht

Noch sei es nicht so weit, aber von einer "Steppe" könne man durchaus schon sprechen, sagt Christian Wellbrock von der Hamburg Media School. Wellbrock ist Leiter von "Wüstenradar", einer Studie, die zum ersten Mal die bundesweite Verbreitung und zahlenmäßige Entwicklung von Lokalzeitungen in den letzten 30 Jahren unter die Lupe genommen hat. Sie erhebt, wie stark der Rückgang lokaler Medien inzwischen tatsächlich ist und warnt: In etlichen Regionen droht tatsächlich die Verbreitung von "Nachrichtenwüsten".
mehr »

Altersdiskriminierung beim WDR?

Der WDR serviert freie Mitarbeiter*innen ab, die im Rentenalter für den Sender arbeiten wollen. Damit tut er genau das Gegenteil von dem, was in der öffentlichen Diskussion derzeit geraten wird. Während Angestellte sich also über Jahre hinweg auf einen Termin für ihren Ruhestand vorbereiten konnten, wird langjährigen freien Mitarbeiter*innen nun mit kurzer Frist mitgeteilt, wann für sie angeblich Schluss sein soll. Altersdiskriminierung will man beim WDR aber nicht erkennen – für den Sender gehe es vielmehr darum, jüngeren Mitarbeitenden nicht den Einstieg zu blockieren.
mehr »

„PR-Puppen“ proben den Aufstand 

Kreative, die der Tech-Konzern OpenAI (ChatGPT, DALL-E) zu einem geschlossenen Produkttest eingeladen hatte, leakten den Testzugang kürzlich und griffen OpenAI in einem Protestschreiben öffentlich an. Sie warfen dem Unternehmen u.a. vor, sie für Marketing und PR zu missbrauchen und Art Washing zu betreiben.Eine teilnehmende Person schildert M , wie es zu dem Leak kam und was Techkonzerne künftig bei der Zusammenarbeit mit Kreativen besser machen können.
mehr »

Studienergebnisse: Worlds of Journalism

Was bedeutet es heute, Journalist*in zu sein? Welche Dynamiken und Entwicklungen lassen sich im Berufsfeld wahrnehmen? Was brauchen wir, um gute und professionelle Arbeit machen zu können? Zu diesen Fragen führt das Langzeitforschungsprojekt „Worlds of Journalism“ seit 2007 weltweit Befragungen durch. Von 2021 bis 2023 ging die Studie in die dritte Runde. Unterstützt von UNESCO und der International Federation of Journalists, fokussiert die aktuelle Umfrage auf den Themenkomplex Risiken und Ungewissheiten. Ein Blick in die Schweiz.
mehr »