Urheberrechte schützen

#krassmedial: Rechtsanwalt Jasper Prigge warf die Fragen über die Urheberrechte bei der Nutzung von KI auf. Foto: Charles Yunck

Künstliche Intelligenz hat für den Fachanwalt für IT- und Urheberrecht, Jasper Prigge, ein großes wirtschaftliches Potenzial, zum Beispiel bei der Bebilderung von Texten. Suchte man bisher in Datenbanken nach passenden Symbolbildern, kann man sie nun mit ChatGPT und anderen KI-Tools mit dem richtigen „Prompt“ selbst generieren, wie er bei #krassmedial im Vortrag „Das war doch meine Idee!“ vorführte.

Dieser Prompt, also der formulierte Befehl für das neue Bild, arbeitet allerdings auf der Basis von abertausenden zusammengesammelten Dateien, unter anderem aus dem Internet. Ist so ein neu gestaltetes Bild nun urheberrechtlich geschützt? Und wer ist eigentlich Urheber*in, denn das rechtliche Problem betrifft drei Kriterien: Die KI-generierten Inhalte, die Trainingsdaten und den Prompt.

Im Urheberrecht (§2, Abs.2) heißt es: „Werke im Sinne dieses Gesetzes sind nur persönliche geistige Schöpfungen.“ Für Prigge ist es deshalb klar: KI-generierte Inhalte können „nicht urheberrechtlich schutzwürdig sein, denn es steht keine geistige Schaffenskraft dahinter“, auch wenn das Computerprogramm wie ein Mensch auf die Prompts des Eingebenden zu reagieren scheine. „Nur Menschen können urheberrechtlich geschützte Werke schaffen“, betonte Prigge. Die menschliche Individualität nehme zwar bei technischen Hilfen wie einer Kamera im Smartphone ab. Automatische Einstellungen wie Belichtung, Fokus oder Farbkorrekturen ließen den Spielraum für menschliche Einwirkungen geringer werden, er bleibe aber im Grundsatz weiter bestehen. Denn am Ende entscheide eben doch der Mensch noch eine Menge: Sei es, aus welchem Winkel fotografiert oder, wann der Auslöser gedrückt werde.

Ohne die Trainingsdaten, durch die sich die KI gemäß ihres Prompt wühlt, bleiben Tools wie ChatGPT „eine leere Hülle“. Die Frage muss also lauten, welche Trainingsdaten darf die KI nutzen, welches „Text und Data Mining“ darf sie zur Analyse von digitalen Werken betreiben, um daraus Muster für eigene Vorschläge zu gewinnen. Die Antworten finden sich im Urheberrechtsgesetz, genauer in § 44b, Absatz 2 UrhG: „Zulässig sind Vervielfältigung von rechtmäßig zugänglichen Werken für Text und Data Mining. Die Vervielfältigungen sind zu löschen, wenn sie für das Text und Data Mining nicht mehr erforderlich sind.“ Prigge bezeichnete dies als einen „ziemlich weitgehenden Eingriff in das Recht der Urheber*innen“, doch es gebe die Möglichkeit, die KI aus eigenen Werken „draußen zu halten“. Denn der folgende Absatz 3 regelt, die Nutzung von Text und Data Mining seien „nur zulässig, wenn der Rechteinhaber sich diese nicht vorbehalten hat“. Dieser Vorbehalt muss allerdings in „maschinenlesbarer Form“ erfolgen, das heißt, der Crawler wie beispielsweise der Googlebot, muss erkennen können, dass er sich hier nicht bedienen darf. Dies ist möglich durch einen entsprechenden Hinweis in der „robots.txt“, die gewissermaßen eine Hausordnung für Crawler darstellt.

Dabei gibt es aber zwei Probleme: Erstens müssen Bots sich daran nicht halten, was ihnen die robots.txt vorschreibt, und zweitens wollen die Urheber- oder Macher*innen der Websites in den mächtigen Suchmaschinen ja trotzdem gefunden werden. Bisher, so Prigge, sei es nicht möglich, den Googlebot zum Gefundenwerden zu erlauben und ihm gleichzeitig das Text und Data Mining zu verbieten. Ein Problem für künftige Novellen des Urheberrechts.

Für die Urheber*innen sieht Prigge als wichtige Fragen, die jetzt zu diskutieren sind: Wie sollen Urheber*innen an der Nutzung ihrer Werke beteiligt werden? Wie sind KI-generierte Inhalte zu kennzeichnen? Wie sollen die Verwertungsgesellschaften damit umgehen und was ist mit dem Leistungsschutzrecht bei KI-generierten Inhalten? Oder konkret: Gibt es ein Leistungsschutzrecht der Presseverleger an KI-generierten Texten, die aber nicht urheberrechtlich geschützt sind?

Die EU fordert in ihrem Artificial Intelligence (AI) Act, der noch in diesem Jahr vereinbart werden soll, dass KI-Systeme „sicher, transparent, nachvollziehbar und umweltfreundlich“ sein sollen. Prigge erläuterte, dass bei KI-generierten Werken immer ein Risiko von Urheberrechtsverletzung durch ungeklärte Ausgangsdaten existieren könne. Bei einem konkreten Vorwurf gelte häufig „der beliebte Juristensatz“: Es kommt darauf an. Heißt: Man müsse jeden Einzelfall prüfen.

Die Teilnehmenden diskutierten, ob komplex ausformulierte Prompts selbst unter das Urheberrecht fallen könnten. Klar sei, dass sich hier ein neues Berufsfeld entwickele, das „Prompt-Engineering“. In der Tendenz fehle es aber an einer ausreichenden Schöpfungshöhe.

Urheberrechtsgesetz UrhG – nichtamtliches Inhaltsverzeichnis Gesetze im Internet (gesetze-im-internet.de)

Hier ein „Werkzeugkasten“ mit allen in diesem Fokus genannten Tools und deren Links.

 

 

nach oben

Weitere aktuelle Beiträge

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »

Gewalt an Frauen bleibt Leerstelle

Gewalt gegen Frauen ist in Deutschland alltäglich. Und nicht nur in Politik und Justiz besteht großer Nachholbedarf im Kampf gegen geschlechtsspezifische Gewalt: Auch die journalistische Praxis zeigt deutliche Schwächen und erhebliche Leerstellen. Der aktuelle Trendreport der Otto Brenner Stiftung nimmt die Jahre 2020 bis 2022 in den Blick und stellt fest: Gewalt gegen Frauen wird isoliert dargestellt, ohne strukturelle Ursachen und Präventionsmöglichkeiten zu thematisieren. Das betrifft besonders deutsche Täter. Die Perspektive der Opfer bleibt unterbelichtet.
mehr »

Gewalt gegen Medienschaffende

Eine erneut alarmierende Bilanz zieht die internationale Organisation Reporters Sans Frontiers (RSF), die weltweit Angriffe und Gewalttaten gegen Journalist*innen und damit gegen die Pressefreiheit dokumentiert: 55 getötete, 550 inhaftierte, 55 in Geiselhaft genommene und 95 unter unklaren Umständen vermisste Medienschaffende sind bis Anfang Dezember für dieses Jahr zu beklagen.
mehr »

KI: Menschen wollen Regeln

Rund drei Viertel der Menschen in Deutschland sorgen sich einer Umfrage zufolge um die Glaubwürdigkeit der Medien, wenn Künstliche Intelligenz (KI) im Spiel ist. 90 Prozent der Befragten fordern dazu klare Regeln und Kennzeichnungen. Dies ergab eine am Mittwoch in Berlin veröffentlichte Studie der Medienanstalten. Für die repräsentative Erhebung "Transparenz-Check. Wahrnehmung von KI-Journalismus" wurden online 3.013 Internetnutzer*innen befragt.
mehr »