„PR-Puppen“ proben den Aufstand 

Roboter KI AI digital Digitalisierung

Foto: Hermann Haubrich

Kreative, die der Tech-Konzern OpenAI (ChatGPT, DALL-E) zu einem geschlossenen Produkttest eingeladen hatte, leakten den Testzugang kürzlich und griffen OpenAI in einem Protestschreiben öffentlich an. Sie warfen dem Unternehmen u.a. vor, sie für Marketing und PR zu missbrauchen und Art Washing zu betreiben.Eine teilnehmende Person schildert M , wie es zu dem Leak kam und was Techkonzerne künftig bei der Zusammenarbeit mit Kreativen besser machen können.

Sie gehören zum internationalen Tester*innen-Team der Video-KI Sora, von OpenAI. Mitglieder des Teams, die sich selbstironisch Sora PR Puppets nennen, haben in der vergangenen Woche den Testzugang zu Sora geleakt . So konnten weltweit Interessierte mit dem eigentlich geschlossenen System experimentieren. Dazu gab es eine Protestnote von Tester*innen.  Warum gehen Sie an die Öffentlichkeit, mit Ihrer Geschichte?

Ich habe die Hoffnung, dass meine Geschichte einen Mehrwert hat und dass Unternehmen bei ihren Software-Tests zukünftig besser nachdenken und besser planen, wenn sie Kreative dazu einladen. Dass große Unternehmen inzwischen oft PR und Werbung über die Einbindung von Influencer*innen und Testimonials generieren, ist ja heute gang und gäbe. Es existieren Listen mit deren Followerzahlen und ihrem daraus resultierenden Marktwert. OpenAI hätte ihr Testing  ebenfalls so aufsetzen können. Dafür waren sie, als ein immerhin mit 150 Milliarden Dollar bewertetes Unternehmen, aber offensichtlich zu knausrig und so kam es zu dem Konflikt.

Die Leak-Gruppe Sora PR Puppets werfen Open AI auch „Art Washing“ vor. Warum macht man als Kreative*r überhaupt bei solch einem Test mit?

Man ist einer von 330 persönlich eingeladenen High Potentials und fühlt sich entsprechend geschmeichelt. Man hat die Möglichkeit, selbst dieses sagenumwobene Tool auszuprobieren. Wenn man es schafft Produktionen dort zu platzieren, bekommt man eine riesige Reichweite, die man selbst nicht bezahlen könnte. Das und nicht das Honorar ist der eigentliche Gewinn. Zudem lernt man beim Testing andere bekannte Kreative kennen und kann sich mit ihnen austauschen. Und man kommt natürlich auch nahe an ein Unternehmen heran, das Kreative mit Stipendien und Fundings unterstützt. Man hofft vielleicht auf eine langfristige und nachhaltige Zusammenarbeit. Da haben dann aber vielleicht auch die Aussicht auf die gigantische Reichweite für die eigenen Produktionen und auch das Geld zum Mitmachen verlockt.

Wie funktionierte der Zugang zum Test?

Zunächst einmal: Dieses Gespräch dürfte eigentlich gar nicht stattfinden. Beim Eintritt in den Test muss man einen NDA unterschreiben und der regelt auch die möglichen Vertragsstrafen. Deshalb möchte ich komplett anonym bleiben. Etwa 330 Menschen, teilweise high profile-Kreative, bekannte KI-Künstler*innen, Filmemacher*innen, Musiker*innen nehmen an dem Test teil. Die sind auf Empfehlungsbasis und aufgrund einer persönlichen Einladung mit dabei. Man kann sich nicht, wie bei anderen Software-Tests, bewerben. Für die Teilnehmer*innen gibt es auch persönliche Regionaltreffen, bisher in Singapur und in LA. Ich selbst wurde bei meiner ersten Teilnahme online auf ZOOM von einer freundlichen OpenAI-Kollegin begrüßt und in eine Gruppe mit insgesamt mehreren Dutzend Teilnehmer*innen eingeteilt.

Wir bekamen eine Einführung ins Programm und in die Nutzeroberfläche. Dann wurden wir für einige Minuten in kleine break out groups eingeteilt, um uns besser kennenzulernen. Anschließend ging es wieder zurück in die große Gruppe. Zugang zur Testumgebung bekam man über einen persönlichen Link und den persönlichen ChatGPT-Account. Jede*r der beteiligten Kreativen kann im Rahmen des Programms Sora Select bis zu drei eigene, mit Sora produzierte Arbeiten einreichen. Von OpenAI ausgewählte Videos von bis zu 20 ausgewählten Künstler*innen sollten für PR und Marketing genutzt werden können. Seine Arbeiten muss man über ein Online-Formular anmelden und dann hochladen. Von OpenAI ausgewählte Arbeiten werden jeweils mit einer Artist Fee von 1.500,00 Dollar vergütet.

Einmal die Woche gibt es eine office hour zum Austausch untereinander. Als gemeinsames Austauschforum wurde ein Slack eingerichtet. Ebenfalls einmal wöchentlich bekommen wir eine Challenge, in deren Rahmen wir Aufgaben bearbeiten können. Die Arbeitsergebnisse dürfen wir aber nicht nach außen geben, bzw dürfen wir sie erst nach außen geben, wenn Sora releast ist oder die Weitergabe von OpenAI abgenickt wurde.

Wie hoch war Ihr persönlicher Zeitaufwand?

Eine Woche war für die Einarbeitung notwendig. In der zweiten Woche hat man mit der Produktion der Videos beginnen können. Man kann sicher mit zwei vollen Arbeitswochen rechnen – die dann bei einer Nichtberücksichtigung der eingereichten Videos aber umsonst gewesen wären. War das ganze Procedere des Tests, der Produktion von Videos und der Auswahl geeigneter Videos durch OpenAI nicht von Anfang an kommuniziert? Wussten die Testteilnehmer*innen, auf was  sie sich einließen? Grundsätzlich hat OpenAI transparent kommuniziert. Es gab jede Woche einen Newsletter und die Regeln waren klar. Es war auch klar, dass man nicht unbedingt produzieren, einreichen, mitmachen musste, um dabei zu sein.

Warum kam es dann zu dem Unmut?

In manchen Details hat OpenAI dann doch nicht so eindeutig kommuniziert. So haben manche Künstler*innen ihre Arbeiten z.B. mit KI-generierter Musik unterlegt und dazu Audio KI-Programme wie Udio oder Suno genutzt. Aus Gründen des Urheberrechts konnte OpenAI diese Produktionen ursprünglich aber angeblich nicht nutzen. Das war anfangs nicht kommuniziert und so waren diese Arbeiten angeblich nicht für eine Einreichung geeignet und der Aufwand war scheinbar umsonst.

Mittlerweile hat sich Open AI diesbezüglich nochmal rechtlich beraten lassen, und jetzt ist eine Teilnahme an „Sora Select“ mit generierter Musik zum Video möglich. Außerdem wurde mittlerweile genauer kommuniziert, was man gewinnen kann, wenn die eigenen Arbeiten ausgewählt werden: Nämlich ein Screening in einer von vier Städten weltweit, mit einem kleinen  Auftritt auf der Bühne, Flug und Unterkunft gratis. Videos, die es nicht in das Screening schaffen, werden von OpenAI in den sozialen Medien präsentiert. Das bedeutet, dass es jetzt doch mehr Künstler*innen geben wird, die durch die Teilnahme eine größere Reichweite bekommen werden.

War das ein Effekt des Leaks und der Öffentlichkeitsaktion?

Insofern war das Leak für die verbleibenden Betatester positiv. Umgekehrt stellt sich natürlich die Frage, ob man als, mit OpenAI zusammenarbeitende Künstler*in noch cool ist und ob man durch das Leak nicht an „Street Credibility“ verloren hat. Und da das Test-System tatsächlich noch voller Fehler und Bugs ist, ist es teilweise frustrierend damit zu arbeiten. Die Hälfte der Beiträge im Austauschforum Slack sind Fehlermeldungen. Drei OpenAI-Mitarbeiter*innen sind nur damit beschäftigt, in Slack die Fehlermeldungen aufzunehmen.

Wenn man zu einer Artist Alpha-Testgruppe eingeladen wird, erwartet man ja, unmittelbar in den kreativen Prozess einsteigen zu können. Man erwartet nicht, für ein – zudem noch kostenloses – Bugfixing benötigt zu werden. Sinnbildlich gesprochen: Man steigt in ein tolles Auto ein und will es testen. Dann merkt man aber, dass die Handbremse fixiert ist, der Wagen nur drei Räder hat und die Scheinwerfer nicht funktionieren.

Welche weiteren Kritikpunkte der Kreativen gab es am Testsetting?

Es werden offensichtlich nur solche Produktionen von OpenAI ausgewählt und honoriert, die deren Vorstellungen von PR und Marketing entsprechen. Da geht es natürlich viel um Mainstream und nicht unbedingt um exponierte künstlerische Positionen. Alles, was mit Gewalt oder Sexualität zusammenhängt ist ausgeschlossen. Das ist natürlich auch eine Art von Zensur künstlerischen Ausdrucks.

Wenn man davon ausgeht, dass diese hochkarätigen 330 Tester*innen ja auch in gewisser Weise als Influencer*innen eingeladen worden waren und dass Influencer*innen oft einen fünfstelligen Betrag bekommen, wenn sie für ein Unternehmen aktiv werden, dann könnte man schon sagen, dass es sich hier um eine Art von Ausbeutung handelt.

Wie hat OpenAI auf das Leak am 26.11. reagiert?

Es entstand Chaos. Morgens gab es eine kurze Mitteilung, dass das System down sein würde – aber keinen Hinweis auf den Skandal. Die Teilnehmer*innen haben sich dann untereinander informiert und sich Links zu Veröffentlichungen zum Leak zugeschickt

OpenAI hat erst am nächsten Tag, dem 27.11., mit einer Mitteilung reagiert. Darin haben sie bedauert, dass es zu dem Vorfall gekommen war, haben betont, dass niemand im Programm zu irgendetwas gezwungen worden war und dass doch alle rein freiwillig mitarbeiten würden. Der Tenor war: „Man hätte doch miteinander reden können, das wäre doch nicht notwendig gewesen“. Seit dem 28.11. haben die Tester wieder Zugang zur Testumgebung, sie ist aber noch wahnsinnig buggy. Zum Beispiel gehen einzelne Länderzugänge noch nicht.

Inaktive Testaccounts hat OpenAI inzwischen gelöscht, wahrscheinlich in der Annahme, dass sich Oppositionelle eh nicht an der Produktion beteiligen würden.

Wie reden die Künstler*innen untereinander über den Leak?

Da herrscht eine hohe Dynamik. Manche verhalten sich neutral, würden gerne weiterhin mit Sora arbeiten und suchen Wege, wie man das den anderen gegenüber verargumentieren kann. Andere verhalten sich opportunistisch, OpenAI gegenüber. Wieder andere sind kritisch und nachdenklich.

Wie könnte es weitergehen, mit dem Testprojekt?

Vielleicht wurden nicht alle Sora PR Puppets aus dem System gelöscht und es gibt noch einige Schläfer, die die Aktion wiederholen könnten. Oder es geht läuft alles weiter wie bisher und möglichst viele versuchen noch ihre Beiträge in Sora Select zu platzieren und dort berücksichtigt zu werden. Momentan sieht es so aus, als läuft alles normal weiter.

Wie hätte man den Test, nach Ihrer Einschätzung, besser oder fairer für die Tester*innen aufsetzen können?

Man hätte vielleicht nur die Hälfte der 330 Kreativen einladen sollen. Dafür hätte man dann deren Rolle anders definieren können. Man hätte sie z.B. deutlich als Influencer*innen bezeichnen und sagen können: „ Ihr produziert mit Sora Videos für uns, die wir dann auf euren und unseren Kanälen sharen können. Dafür bekommt jede*r pauschal zehntausend Euro als Honorar.“

 

nach oben

Weitere aktuelle Beiträge

KI: Menschen wollen Regeln

Rund drei Viertel der Menschen in Deutschland sorgen sich einer Umfrage zufolge um die Glaubwürdigkeit der Medien, wenn Künstliche Intelligenz (KI) im Spiel ist. 90 Prozent der Befragten fordern dazu klare Regeln und Kennzeichnungen. Dies ergab eine am Mittwoch in Berlin veröffentlichte Studie der Medienanstalten. Für die repräsentative Erhebung "Transparenz-Check. Wahrnehmung von KI-Journalismus" wurden online 3.013 Internetnutzer*innen befragt.
mehr »

Lokaljournalismus: Die Wüste droht

Noch sei es nicht so weit, aber von einer "Steppe" könne man durchaus schon sprechen, sagt Christian Wellbrock von der Hamburg Media School. Wellbrock ist Leiter von "Wüstenradar", einer Studie, die zum ersten Mal die bundesweite Verbreitung und zahlenmäßige Entwicklung von Lokalzeitungen in den letzten 30 Jahren unter die Lupe genommen hat. Sie erhebt, wie stark der Rückgang lokaler Medien inzwischen tatsächlich ist und warnt: In etlichen Regionen droht tatsächlich die Verbreitung von "Nachrichtenwüsten".
mehr »

Altersdiskriminierung beim WDR?

Der WDR serviert freie Mitarbeiter*innen ab, die im Rentenalter für den Sender arbeiten wollen. Damit tut er genau das Gegenteil von dem, was in der öffentlichen Diskussion derzeit geraten wird. Während Angestellte sich also über Jahre hinweg auf einen Termin für ihren Ruhestand vorbereiten konnten, wird langjährigen freien Mitarbeiter*innen nun mit kurzer Frist mitgeteilt, wann für sie angeblich Schluss sein soll. Altersdiskriminierung will man beim WDR aber nicht erkennen – für den Sender gehe es vielmehr darum, jüngeren Mitarbeitenden nicht den Einstieg zu blockieren.
mehr »

Buchtipp: Das Prinzip Trotzdem

Wie könnte ein selbstbewusster Journalismus aussehen, der sich gegen die aktuelle Medienkrise zu behaupten weiß und sich auf seine zentrale Rolle für funktionierende demokratischen Gesellschaften besinnt? Roger de Weck war Zeit-Chefredakteur, Generaldirektor des Schweizer Radios und Fernsehens sowie Mitglied des Zukunftsrats für Reformen des Öffentlich-Rechtlichen Rundfunks in Deutschland. In seinem jüngst erschienenen Essay „Das Prinzip Trotzdem. Warum wir den Journalismus vor den Medien retten müssen“ beschäftigt er sich mit genau diesen Fragen.
mehr »