Creator, Politiker und Journalisten bekommen bei Youtube ein Tool zur Seite gestellt, um Deepfakes von sich zu finden und zu melden. Es heißt „Likeness detection“ und funktioniere ähnlich wie Content-ID, berichtet Eva-Maria Weiß im Newsletter „KI-Update“ des Heise-Portals.
Während mit Content-ID Inhalte gesucht werden können, die den eigenen Inhalten entsprechen, stehen bei Likeness detection Gesichter im Vordergrund. Allerdings kann nicht jeder eine solche Suche nach Deepfakes von sich starten. Erste Creator aus dem YouTube-Partnerprogramm konnten das Tool testen. Nun können sich auch Politiker*innen und Journalist*innen für die Testphase anmelden. Dazu müssen sie sich identifizieren.
Melden und Löschen
Betroffene können gefundene Deepfakes auf der Plattform dann melden, so Heise. Wenn diese gegen die Richtlinien von YouTube verstoßen, werden sie gelöscht. Es ist also nicht so, dass jede Nutzung eines fremden Gesichts auch automatisch einen Verstoß darstellt. Erlaubt können etwa satirische Inhalte sein. „YouTube hat eine lange Tradition darin, freie Meinungsäußerung und Inhalte von öffentlichem Interesse zu schützen – darunter auch Parodien und Satire, selbst wenn diese zur Kritik an Staats- und Regierungschefs oder einflussreichen Persönlichkeiten verwendet werden“, heißt es dazu im Blogbeitrag von YouTube. Anträge auf das Löschen von Inhalten würden demnach sehr sorgfältig geprüft.
Bisher gibt es kein spezielles Gesetz, das Deepfakes behandelt. Der Digital Services Act (DSA) sieht auf europäischer Ebene vor, „dass Deepfakes gekennzeichnet werden müssen, wenn die Inhalte fälschlicherweise für echt gehalten werden können“. Das betreffe, so Heise, zwar die Anbieter von KI-Tools und Plattformen, im Zweifel jedoch nicht die Personen, die für die Deepfake-Erstellung zuständig sind.
Betroffene können sich auf ihre Persönlichkeitsrechte berufen. Um Unterlassungs- oder Schadensersatzansprüche geltend zu machen, kommt das Bürgerliche Gesetzbuch in Betracht.

