Wenn die KI das Sprechen lernt

Foto: Fotolia/agsandrew

Künstliche Intelligenz entwickelt sich in rasanter Geschwindigkeit. Täglich berichten Anbieter von generativen KI-Modellen über neue Fähigkeiten. Bei dieser Flut an immer neuen Einsatzmöglichkeiten kommen Berufsverbände mit Regelungen kaum noch hinterher. Dabei müssen Menschen nicht zwangsläufig tatenlos zusehen, wie KI ihnen die Arbeit abnimmt. Das Institut für Digitale Ethik an der Stuttgarter Hochschule der Medien (HdM) hat jetzt Leitlinien vorgelegt, die Redaktionen bei der Einschätzung helfen sollen, in welchem Rahmen der Einsatz von KI-Stimmen sinnvoll sein kann.

Beim Forschungsprojekts „GEI§T‟ – Künstliche Intelligenz in der Medienproduktion“, gefördert vom Bundesforschungsministeriums, ging es in erster Linie darum, ethische Richtlinien für den Umgang mit künstlichen Stimmen zu definieren. Für die Ausarbeitung haben die Forschenden im Zeitraum November 2023 bis Juli 2024 zwölf qualitative Interviews mit Medienschaffenden geführt. Unterstützt wurde die Hochschule dabei von der Hamburger Medienproduktionsfirma nachtblau und dem Fraunhofer Institut für Digitale Medientechnologie.

Für Prof. Dr. Petra Grimm, Leiterin des Instituts für Digitale Ethik an der HdM, steht fest: „Die beschleunigte Entwicklung im Bereich KI und die unzähligen Möglichkeiten brauchen klare Handlungsempfehlungen und eine öffentliche Debatte.“ KI werde die Art verändern, wie Medieninhalte generiert und produziert werden, ergänzt Grimm. Dabei sollte nicht vergessen werden, wie wichtig die Medien und eine qualitativ hochwertige Berichterstattung für die Demokratie seien.

Die Frage nach dem Warum

Die Forschenden betonen, bei den nun vorliegenden Leitlinien handelt es sich nicht um starre Regeln. Sie sollen Räume für verantwortungsvolle Entscheidungen bieten. Der Einsatz von KI-Stimmen sei daher nicht grundsätzlich gut oder schlecht. Entscheidend sei vielmehr, ob er den Zielen von Journalismus diene: sachlich informieren, Orientierung bieten, Demokratie stärken.

Diese ethische Verantwortung beschränke sich nicht nur auf Journalist*innen, erklären die Projektbeteiligten. An den ausgearbeiteten Leitlinien sollen sich auch andere Akteur*innen halten, die öffentlich meinungsbildend wirken, also beispielweise politische Influencer*innen oder andere reichweitenstarke Menschen, die auf Social Media unterwegs sind.

Acht Leitlinien für KI-Stimmen

Im Rahmen des Projekts sind von den Forschenden acht Leitlinien herausgearbeitet worden. Diese beschäftigen sich mit zentralen Fragen beim Einsatz künstlich generierter Stimmen, insbesondere Verantwortung, Transparenz , Schutz vor Täuschung, Medienkompetenz und der Rolle und der Schutz der menschlichen Stimme. Die Forschenden schlagen beispielsweise vor, Modelle auszuprobieren, bei denen die Medienkonsument*innen zwischen KI-generierter und menschlicher Stimme auswählen können. So ein Vorgehen sei transparent und fördere gleichzeitig einen reflektierten Medienkonsum.

Als zentrales Leitmotiv jeglichen Handelns empfehlen die Forschenden, den Einsatz von KI immer mit einer klar definierten journalistischen Funktion zu verbinden. Eine generelle Verwendung von KI-Stimmen verbiete sich daher.

Damit das Vertrauen in die Medien nicht erschüttert wird, sollte der Einsatz von KI-Stimmen transparent begründet werden. Dadurch entstehe Verständnis und Akzeptanz, unterstreichen die Projektbeteiligten. Die journalistische Verantwortung sei verletzt, wenn KI zur beliebigen Steigerung von Inhalten benutzt werde. „Vertrauen entsteht durch Sinn, Maß, Haltung und Verständnis“, unterstreichen die Forschenden.

Zudem folgten die acht definierten Leitlinien dem Prinzip der „wachsamen Ethik“. Diese erfordere eine regelmäßige Überprüfung der Zwecke und Ziele des KI-Einsatzes. Dieser sollte wiederum auf seine Auswirkungen in der Praxis hin überprüft werden. Nur so sei es möglich, rasch umzudenken und das Handeln an erkennbare Folgen anzupassen.

nach oben

Weitere aktuelle Beiträge

Filmtipp: Eine bessere Welt

Ein vorzüglich gespieltes ZDF-Drama beschreibt, wie eine junge Wissenschaftlerin nach einer TV-Talkshow über die Klimakrise, in der sie für eine Begrenzung des individuellen CO2-Ausstoßes plädiert, zum Freiwild erklärt wird. Aufgrund der Beleidigungen und Morddrohungen im Internet entwickelt die völlig unvorbereitete Forscherin einen regelrechten Verfolgungswahn. Dann werden ihre Ängste Wirklichkeit.
mehr »

„brandmelder“: Klima braucht Kontext

Am 16. März 2026 startet das Netzwerk Klimajournalismus mit „brandmelder“ ein neues Analyse- und Monitoringformat. Unter der Leitung von Klimajournalismus-Gründer Jürgen Döschner soll die derzeitige Klimaberichterstattung qualitativ beobachtet und Lücken geschlossen werden.
mehr »

Wenn Redakteurinnen streiken

Am 10. März blieben bei den Tageszeitungen Taz und nd – der Tag einige Seiten weiß. In beiden Redaktionen hatten sich Journalistinnen aber auch Lektorinnen und andere Mitarbeiterinnen am 9. März am  FLINTA* -Streik beteiligt und die Arbeit niedergelegt.
mehr »

ver.di fordert Schutzkodex im ÖRR

Die Vereinte Dienstleistungsgewerkschaft (ver.di) fordert von ARD, ZDF und Deutschlandradio den Schutz von Journalist*innen einen entscheidenden Schritt voranzubringen: Bisher hat sich noch keine öffentlich-rechtliche Rundfunkanstalt dem Schutzkodex angeschlossen. In vielen anderen Medienhäusern gelten die Regelungen des „Schutzkodex“ für Medienschaffende allerdings längst.
mehr »