Künstliche Intelligenz entwickelt sich in rasanter Geschwindigkeit. Täglich berichten Anbieter von generativen KI-Modellen über neue Fähigkeiten. Bei dieser Flut an immer neuen Einsatzmöglichkeiten kommen Berufsverbände mit Regelungen kaum noch hinterher. Dabei müssen Menschen nicht zwangsläufig tatenlos zusehen, wie KI ihnen die Arbeit abnimmt. Das Institut für Digitale Ethik an der Stuttgarter Hochschule der Medien (HdM) hat jetzt Leitlinien vorgelegt, die Redaktionen bei der Einschätzung helfen sollen, in welchem Rahmen der Einsatz von KI-Stimmen sinnvoll sein kann.
Beim Forschungsprojekts „GEI§T‟ – Künstliche Intelligenz in der Medienproduktion“, gefördert vom Bundesforschungsministeriums, ging es in erster Linie darum, ethische Richtlinien für den Umgang mit künstlichen Stimmen zu definieren. Für die Ausarbeitung haben die Forschenden im Zeitraum November 2023 bis Juli 2024 zwölf qualitative Interviews mit Medienschaffenden geführt. Unterstützt wurde die Hochschule dabei von der Hamburger Medienproduktionsfirma nachtblau und dem Fraunhofer Institut für Digitale Medientechnologie.
Für Prof. Dr. Petra Grimm, Leiterin des Instituts für Digitale Ethik an der HdM, steht fest: „Die beschleunigte Entwicklung im Bereich KI und die unzähligen Möglichkeiten brauchen klare Handlungsempfehlungen und eine öffentliche Debatte.“ KI werde die Art verändern, wie Medieninhalte generiert und produziert werden, ergänzt Grimm. Dabei sollte nicht vergessen werden, wie wichtig die Medien und eine qualitativ hochwertige Berichterstattung für die Demokratie seien.
Die Frage nach dem Warum
Die Forschenden betonen, bei den nun vorliegenden Leitlinien handelt es sich nicht um starre Regeln. Sie sollen Räume für verantwortungsvolle Entscheidungen bieten. Der Einsatz von KI-Stimmen sei daher nicht grundsätzlich gut oder schlecht. Entscheidend sei vielmehr, ob er den Zielen von Journalismus diene: sachlich informieren, Orientierung bieten, Demokratie stärken.
Diese ethische Verantwortung beschränke sich nicht nur auf Journalist*innen, erklären die Projektbeteiligten. An den ausgearbeiteten Leitlinien sollen sich auch andere Akteur*innen halten, die öffentlich meinungsbildend wirken, also beispielweise politische Influencer*innen oder andere reichweitenstarke Menschen, die auf Social Media unterwegs sind.
Acht Leitlinien für KI-Stimmen
Im Rahmen des Projekts sind von den Forschenden acht Leitlinien herausgearbeitet worden. Diese beschäftigen sich mit zentralen Fragen beim Einsatz künstlich generierter Stimmen, insbesondere Verantwortung, Transparenz , Schutz vor Täuschung, Medienkompetenz und der Rolle und der Schutz der menschlichen Stimme. Die Forschenden schlagen beispielsweise vor, Modelle auszuprobieren, bei denen die Medienkonsument*innen zwischen KI-generierter und menschlicher Stimme auswählen können. So ein Vorgehen sei transparent und fördere gleichzeitig einen reflektierten Medienkonsum.
Als zentrales Leitmotiv jeglichen Handelns empfehlen die Forschenden, den Einsatz von KI immer mit einer klar definierten journalistischen Funktion zu verbinden. Eine generelle Verwendung von KI-Stimmen verbiete sich daher.
Damit das Vertrauen in die Medien nicht erschüttert wird, sollte der Einsatz von KI-Stimmen transparent begründet werden. Dadurch entstehe Verständnis und Akzeptanz, unterstreichen die Projektbeteiligten. Die journalistische Verantwortung sei verletzt, wenn KI zur beliebigen Steigerung von Inhalten benutzt werde. „Vertrauen entsteht durch Sinn, Maß, Haltung und Verständnis“, unterstreichen die Forschenden.
Zudem folgten die acht definierten Leitlinien dem Prinzip der „wachsamen Ethik“. Diese erfordere eine regelmäßige Überprüfung der Zwecke und Ziele des KI-Einsatzes. Dieser sollte wiederum auf seine Auswirkungen in der Praxis hin überprüft werden. Nur so sei es möglich, rasch umzudenken und das Handeln an erkennbare Folgen anzupassen.

