#krassmedial: Symbiose von KI und Mensch

KI-Expertin Sarah Luisa Thiele stellte hilfreiche KI-Tools für Journalist*innen vor
Foto: Charles Yunck

Künstliche Intelligenz (KI) verändert die Lebens- und Arbeitswelt enorm – auch im Journalismus. Diese Herausforderungen standen im Fokus der diesjährigen dju-Sommerakademie #krassmedial am Wochenende in Berlin. Die rund 80 Teilnehmenden konnten sich in elf Workshops und Diskussionsrunden über Risiken und Chancen der KI-Nutzung informieren und austauschen. Sie waren sich einig, dass Journalist*innen eine große gesellschaftliche Verantwortung haben und der Mensch immer die Kontrolle über KI-generierte Medienprodukte behalten muss.

Mit ChatGPT sei der „iPhone-Moment der KI“ erreicht worden, sagte Keynotesprecher Florian Butollo vom Weizenbaum-Institut. Als Forschungsgruppenleiter befasst er sich dort mit der Frage, wie man „sinnvoll mit dieser KI-Technologie arbeiten kann“, die sich in rasanten Sprüngen entwickelt. Problematisch sei, dass große Internetkonzerne den „Umgang mit dem Wissen der Menschheit“ kontrollierten. So habe Microsoft sich im Januar bei OpenAI eingekauft, das ChatGPT im November 2022 herausbrachte. Politik und Gesellschaft stehen vor einem Regulierungsdilemma, wenn sie Regeln „after the facts“ verhandeln.

Fehlende Quellennachweise und Manipulation durch Bots

Florian Butollo, Leiter der Forschungsgruppe „Arbeiten mit Künstlicher Intelligenz“ am Weizenbaum-Institut in Berlin Foto: ver.di

KI sei keine Problemlösungsmaschine, denn sie könne nur statistische Aufgaben erfüllen – zum Beispiel in Milliarden von Bildern Ähnlichkeiten finden. Für Bewertungen und Bedeutungszuweisungen bedürfe es immer noch menschlicher Intelligenz – genauso wie für neue Ideen: Wenn man „menschliche Kreativität durch den KI-Fleischwolf dreht“, entstehe nichts Innovatives, denn KI verarbeite nur vorhandene Daten. So werde die journalistische Arbeit durch den Einzug von KI in die Redaktionen nicht wegfallen. Recherchetools etwa veränderten sie nur. Durch Digitalisierung entstünden auch neue Jobs wie Programmiererin oder Webdesigner, erklärte Butollo zuversichtlich. Für Journalist*innen fielen Routinetätigkeiten weg, dafür würden Einordnung und Interpretation von Informationen notwendiger.

Problematisch an KI-generierten Inhalten seien etwa fehlende Quellennachweise, die Informationsschwemme, die Manipulation durch Bots, Desinformation sowie die Kuratierung durch private Unternehmen, die Kommunikation normieren. Angesichts der jüngsten Entwicklungen müsse das europäische Gesetz zur Regulierung Künstlicher Intelligenz (AI-Act)  nachgebessert werden, etwa bei Urheberrechten und Transparenzpflichten.

Im Journalismus gelte es, KI als Werkzeug zu nutzen und gleichzeitig die journalistischen Tätigkeiten stärker zu gewichten, bei denen menschliche Expertise notwendig ist. Außerdem sollten „Codes of Conduct für den praxistauglichen Einsatz von KI“ entwickelt werden. In der ersten Diskussionsrunde zeigte sich dann bereits, wie stark der ökonomische Druck ist, KI-Technik nicht nur für neue journalistische Freiräume, sondern für mehr Profit einzusetzen.

Computerprogramme als sinnvolle Werkzeuge einsetzen

Eine Einfürhung in die OSINT-Recherche für Einsteiger*innen gab Max Bernhard von Correctiv Foto: Charles Yunck

In acht Workshop- und Diskussionsrunden wurden die Bedeutung von KI für Journalismus und Gesellschaft vertieft und einzelne Tools zur Arbeitserleichterung im regen Austausch mit den Teilnehmenden vorgestellt. Da gab es eine Einführung in die OSINT (Open Source Intelligence)-Recherche, die Informationen aus frei verfügbaren Quellen im Internet nutzt, von Max Bernhard aus dem Faktencheck-Team von Correctiv.

Journalist Peter Welchering erläuterte wie sich KI-basierte Tools auf vielfältige Weise für die journalistische Recherche einsetzen lassen.
Foto: Charles Yunck

Außerdem wurden in zwei Recherche-Workshops durch den Journalisten Peter Welchering und die Journalistin Sarah Luisa Thiele KI-Tools von Reverse Bild- und Videosuche bis zu Bots wie ChatGPT vorgestellt, die Recherchen unterstützen und von Stunden auf Minuten verkürzen können sowie die Produktion von Texten Text-, Video- und Audiobeiträgen unterstützen. Aber auch mit Blick auf „bigGPT“, das kürzlich gestartete erste komplett aus Computer generierten Inhalten und synthetischen Stimmen hergestellte Radio in Deutschland,  brauche man immer den „menschlichen supervisor“, betont Sarah Luisa Thiele.

„Und Täglich grüßt das Sicherheitsupdate“: Keywan Tonekaboni, Redakteur bei der Computerzeitschrift c`t über IT-Security-Basics Foto: Charles Yunck

Auf großes Interesse stieß auch ein Angebot zu Basics der IT-Sicherheit von Computer, Smartphone, Router oder E-Mails. Keywan Tonekaboni, Redakteur bei der Computerzeitschift c’t, erläuterte verschiedene Möglichkeiten der Absicherung – etwa durch gute Passwörter, Updates, Verschlüsselung, sichere Software und Apps. Sich nicht um IT-Sicherheit zu kümmern, sei für Menschen in Medienberufen „unverantwortlich“. Aber man dürfe auch nicht in Paranoia verfallen, denn in der Regel reichten Maßnahmen, die einem „guten Fahrradschloss“ entsprechen, das erst nach mehreren Minuten zu knacken ist.

Ethische und rechtliche Regulierung

Julia Meisner von der Gesellschaft für Informatik e.V. referierte über die ethischen Aspekte von KI und der journalistischen Verantwortung dabei. Foto: Charles Yunck

Mit den Problemen der Regulierung von KI befassten sich zwei Workshops. Julia Meisner ist bei der Gesellschaft für Informatik zuständig für ein Projekt zur ethischen KI-Entwicklung. Sie berichtete, dass die Zahl gemeldeter Fälle von missbräuchlicher KI-Anwendung wie Deep Fakes seit 2012 um das 26fache gestiegen ist und dass das Interesse an einer Ethik für Künstliche Intelligenz wächst. Verschiedene Unternehmen und Organisationen, darunter ver.di (Anfang 2020), hätten dazu Leitlinien entwickelt. In den Medien gelte es, sich bei der Nutzung von KI auch an den Pressekodex zu halten, der unter anderem Wahrhaftigkeit, Sorgfalt, Richtigstellung und Nichtdiskriminierung einfordert.

Um KI-generierte Inhalte und Medienrecht ging es im Workshop mit Rechtsanwalt Jasper Prigge Foto: Charles Yunck

Wenn Moral den missbräuchlichen KI-Einsatz nicht verhindern kann, sind rechtliche Regulierungen gefragt. Jasper Prigge, Anwalt für IT- und Medienrecht, erklärte, nur „natürliche Menschen“ könnten Urheberrechte in Anspruch nehmen, denn nur sie seien im Sinne des Gesetzes schöpferisch tätig und kreierten etwas Neues. Als Trainingsdaten würden derzeit jedoch alle Daten genutzt, die frei im Internet stehen. Das birgt erhebliche urheberrechtliche Probleme, denn etwa journalistische Texte sind von Menschen geschaffen und urheberrechtlich geschützt. Prigge betonte, wie wichtig es sei zu wissen, was KI kann und was nicht. Und es sollte einem bewusst sein, wenn man selbst Texte mit Hilfe von KI fertigt, „besteht ein hohes Risiko für Urheberechtsverletzungen“. Urheber*innen könnten bei jeder Nutzung Ansprüche geltend machen, wenn sie – mitunter nur per Zufall – eine Nutzung ihrer Werke bemerken. Wie kann all dem begegnet werden? Die Diskussion darüber habe gerade erst begonnen. Regulierung sei notwendig und stünde bei der EU bereits auf der Tagesordnung, etwa mit dem bereits genannten KI-Gesetz.

Neue Kompetenzen und journalistische Verantwortung

Die freie Journalistin Renate Gensch, Mitglied im dju-Bundesvorstand, erklärte Schutzinitiativen für Medienmacher*innen, denn: „Du bist nicht allein“. Foto: Charles Yunck

Da Journalist*innen aktuell nicht nur neuen Herausforderungen durch KI gegenüberstehen, sondern auch zunehmend Diskriminierungen, körperlichen und verbalen Übergriffen ausgesetzt sind, gab es drei weitere Workshops, um auch hier notwendigen Kompetenzen zu vermitteln. In einer Arbeitsgruppe wurden ver.di-Initiativen zum Schutz journalistischer Arbeit vorgestellt: dju-Demo Watch, Schutzkodex für Journalist*innen und dju-Sicherheitstrainings für Medienmacher*innen. Wie Journalist*innen sich gegen Angriffe auf Demos wehren können, erfuhren sie in einem Training mit Infos und praktischen Übungen. Unter dem Titel „Solidarität statt Sexismus“ wurden Strategien gegen Diskriminierung von Frauen und Queers im Journalismus ausgetauscht.

Die abschließende Diskussionsrunde drehte sich um das Schwerpunktthema der Tagung, um den Umgang mit KI in Journalismus und Gesellschaft. Pegah Maham, Projektleiterin zu KI und Data Science bei der „Stiftung Neue Verantwortung“, befasst sich mit Regulierungsmöglichkeiten der riesigen KI-Modelle, die selbst immer wieder neue, differenziertere Versionen entwickeln. Das erforderte so viel Rechenleistung und Geld, dass diese KI derzeit nur von wirtschaftsstarken Unternehmen gebaut werde. Einzelne Informatiker*innen und Universitäten könnten da nicht mithalten.

Pegah Maham von der „Stiftung Neue Verantwortung“ im abschließenden Fish-Bowl über aktuelle Herausforderungen und Verantwortung von Journalist*innen Foto: Charles Yunck

Diese Modelle, die „enorme Chancen“ zur Arbeitserleichterung bieten, seien „erstaunlich gut, aber nicht zuverlässig“. Neben Unzuverlässigkeit und Missbrauchsgefahren bergen KI-Systeme auch „systemische Risiken“, so Maham und verweist unter anderem auf die Zentrierung bei großen Firmen, künftigen geringeren Personalbedarf und Daten, die diskriminierende Werte enthalten.

Die Folgen für Gesellschaft und Arbeitswelt sahen die Gewerkschafter Manfred Kloiber und Peter Freitag von der ver.di-Fachgruppe Medien, Journalismus und Film eher kritisch. Technikjournalist Kloiber betonte die gesellschaftliche Verantwortung von Journalismus durch den „iPhone-Moment“, der „riesige soziale Probleme“ mit sich bringe. Humane Dienstleistung werde immer teurer und kaum noch angeboten, überall landeten Menschen bei Fragen in langen digitalen Warteschlangen, aber „Automaten können sich nicht kümmern“. Journalist*innen dagegen erzeugen noch menschliche Dienstleistung, indem sie Informationen einordnen und Orientierung bieten.

Fish-Bowl-Moderatorin Jenny Genzmer (Deutschlandradio) und der stellvertretende dju-Vorsitzende Peter Freitag Foto: Charles Yunck

Lokalredakteur Freitag ergänzte, bei vielen Betriebsräten sei das Thema KI noch nicht angekommen. Die Geschäftsleitungen setzten die neuen Technologien zunächst im Vertrieb ein und die Redaktionen wüssten nicht, was auf sie zukomme. Auf jeden Fall gibt es „einen massiven Qualifizierungsbedarf“, so Freitag. Besonders freie Journalist*innen müssten sich Fortbildungen leisten können und gerieten da unter Druck. Kloiber plädierte für gewerkschaftliche Strategien und Qualifizierungsangebote, damit niemand durch Rationalisierungen im Zuge von KI-Einführungen abgehängt werde.

Betriebsvereinbarungen als „Sauerstoffmaske“

Pegah Maham meinte, der Journalismus müsse sich zunächst selbst schützen, um dann seine Verantwortung gegenüber der Gesellschaft wahrnehmen zu können – „wie im Flugzeug, wo man sich erst selbst die Sauerstoffmaske aufsetzt und dann anderen hilft“. Diesen Schutz erhofften sich viele in der Runde durch Betriebsvereinbarungen über die Einführung und Nutzung Künstlicher Intelligenz: „Wir müssen sie proaktiv anschieben!“ Es gelte auch, Experimentierräume zu schaffen, um neue Tools auszuprobieren und zu evaluieren.

Manfred Kloiber, Rundfunkjournalist und Vorsitzender der Bundesfachgruppe Medien, Journalismus und Film Foto: Charles Yunck

Zur Frage nach fairer Information der Öffentlichkeit über Chancen und Risiken meinte Kloiber, es gebe „viel Unwissen in Berichterstattung über Künstliche Intelligenz“. Die notwendige Expertise fehle wegen der Ausdünnung von Fachredaktionen, genauso wie bei Corona und Klima. Auch Freitag erläuterte am Beispiel der Einführung von Newsdesks, dass es kurzfristig Arbeitsentlastungen gab, dann aber Personal abgebaut wurde, was den vermeintlichen Fortschritt wieder zurückdrehte. Das habe in der Folge zum Anstieg der Burnout-Quote bei den Kolleg*innen beigetragen.

Viele, besonders jüngere Journalist*innen schätzten Arbeitserleichterungen wie Transkription von Interviews und die Potenziale neuer KI-Tools, die vielleicht doch Freiräume schafften, etwa mehr aus der Fläche zu berichten. Kurzum: Eine sozial verantwortliche Nutzung von KI erfordert einen breiten gesellschaftlichen Diskurs, politische Regulierung und auch für Journalist*innen bedeutet das: „Man lernt nie aus!“

Die Sommerakademie #krassmedial der dju in ver.di wird in der kommenden Ausgabe des M-Magazins im September noch ausführlicher dokumentiert und durch weitere Informationen zum Thema Künstliche Intelligenz ergänzt. 

 

nach oben

Weitere aktuelle Beiträge

Die Zukunft der Filmförderung

In der morgigen Plenarsitzung des Bundestages wird über die Zukunft der deutschen Filmwirtschaft entschieden, der vom Bundestagsausschuss für Kultur und Medien beschlossene Gesetzentwurf zum Filmfördergesetz (FFG) steht zur Abstimmung auf der Tagesordnung. ver.di begrüßt eine Reform der Filmförderung, denn in Zukunft müssen Filmproduktionen Tarif- und Urheber-Vergütungen verbindlich einhalten.
mehr »

KI-Lösungen: Heise macht es selbst

Das Medienhaus „Heise Medien“ hat kürzlich das auf generative Künstliche Intelligenz (KI) spezialisierte Medienhaus „Deep Content“ (digitale Magazine „Mixed“ und „The Decoder“) aus Leipzig gekauft. Damit will Heise die Zukunft generativer KI mitgestalten. „Deep Content“ entwickelte mit „DC I/O“ ein professionelles KI-gestütztes Workflow-Framework für Content-Teams und Redaktionen. Bereits seit Juni dieses Jahres kooperiert Heise mit „Deep Content“ bei der Produktion des Podcasts „KI-Update“. Hinter der Übernahme steckt die Idee, den neuen Markt weiter zu erschließen und hohe Gewinne einzufahren.
mehr »

Audiodeskription: Die KI liest vor

Die Hälfte der öffentlich-rechtlichen Sender verwendet inzwischen auch synthetische oder mit Künstlicher Intelligenz (KI) generierte Stimmen, um für Fernsehformate Audiodeskriptionen zu erstellen. Das ergibt sich aus Nachfragen von M bei den neun ARD-Landesrundfunkanstalten und beim ZDF. Neben professionellen Sprecher*innen setzen der MDR, WDR, NDR, Radio Bremen und das ZDF auch auf synthetische oder KI-Stimmen für die akustische Bildbeschreibung.
mehr »

Gendergerechtigkeit per KI überprüfen

Ein Gender-Analyse-Tool der Technischen Universität München zeigt, wie Frauen medial ausgeklammert werden. Das Ziel vom  Gender Equality Tech Tool – GETT  ist es, die Sichtbarkeit von Frauen in der Berichterstattung bewusst zu fördern. Mit GETT kann über eine Kombination aus klassischen Algorithmen und Open-Source-KI-Modellen nachgeprüft werden, wie oft Frauen im Vergleich zu Männern in den Medien genannt und wie sie dargestellt werden.
mehr »