Explosionswelle in Zeitlupe

Das unabhängige Forschungsinstitut Midjourney hat eine künstliche Intelligenz geschaffen, die aus Textbeschreibungen Bilder kreieren kann. Nach der beispielhaften Eingabe „digital artificial intelligence“ wurden u.a. diese vier Bilder gestaltet.

ChatGPT: Demokratisierung oder Fehlleitung der Massen?

Wie so oft bei technischem Fortschritt, hatte der Einsatz des auf einer KI basierten Dialogsystems ChatGPT den Effekt einer Explosionswelle in Zeitlupe: Sein Erscheinen war nach der langen Zeit des KI-Hypes beinahe überfällig, kam dennoch überraschend und mit Auswirkungen, die sich in verschiedene Richtungen ausbreiten. Auch wenn relativ schnell klar wurde, dass diese Innovation noch nicht in der Lage ist, menschliche Arbeit im großen Stil zu substituieren und auch Fehler und Lücken bekannt wurden, sind die Anwendungsmöglichkeiten für den Journalismus im Prinzip durchaus beeindruckend.

Obschon die Datenbasis von ChatGPT nur bis 2021 reicht und tagesaktuelle Berichterstattung deshalb nicht funktioniert, kann diese Technologie als eine Art intelligente Assistenzfunktion Recherchen, Interviewvorbereitungen und Quellensuchen unterstützen und auch den Text selbst verbessern bzw. „einfache“ Stücke und Passagen verfassen (https://mmm.verdi.de/podcast/). Weitere Entwicklungen von Mitbewerbern sind schon angekündigt und sollen dann aktuelle Daten über einen Zugang zu einer Suchmaschine nutzen (Bing AI), über eine Sprachsteuerung verfügen und auch digitale Kunst generieren können (Chatsonic): Ein umfassender, verlässlicher und kreativer „Partner“ im Web ist das Ziel.

Faszinierend sind damit auch die gesellschaftlichen Auswirkungen: Man könnte vermuten, dass dieses Tool jenen Menschen helfen kann, die weniger Routine beim Verfassen von Texten und limitierten Zugang zu Quellen haben. Dies könnte also dazu führen, dass die Qualität der Texte der „expressiven Crowd“ erhöht wird: „Bürgerjournalisten“ würden hiervon profitieren und damit vielleicht auch generell die Art der Kommunikation in der Gesellschaft verbessert werden. Diese würde sich mit der Zeit immer weiter entwickeln, da es zu positiven Lerneffekten führt, wenn man sich mit dem generierten Text und seinen Quellen auseinandersetzt. Vielleicht würde sogar eine neue Art von Rationalität und Objektivität Einzug halten? Habermas hatte ja bereits auf die Notwendigkeit des „kommunikativen Handelns“ in der Gesellschaft aufmerksam gemacht, in der die Beteiligten ihre individuellen Ziele unter der Bedingung verfolgen, „dass sie ihre Handlungspläne auf der Grundlage gemeinsamer Situationsdefinitionen abstimmen können.“

Könnte diese Situationsdefinition auch durch ChatGPT und andere Tools erfolgen? Zumindest könnte man erhoffen, dass durch eine qualitative Verbesserung des gesellschaftlichen Diskurses die negativen Folgen der fortschreitenden Machtzentralisierung ein Stück weit kompensiert werden, welche durch derartige Tools zutage treten: Diese befinden sich in den Händen von nichteuropäischen Technologiekonzernen, welche unbestimmte gesellschaftliche Verpflichtungen aufweisen. Natürlich würde ein derartiger breiter „Upgrade“ journalistischer Fähigkeiten Auswirkungen haben: Verbindungen von professionellem Journalismus und Bürgerjournalismus sind bisher gescheitert, auch weil man wohl einen Qualitätsverlust befürchtete, obwohl die ausgedünnten Redaktionen durchaus Unterstützung, insbesondere bei der regionalen Berichterstattung brauchen könnten.

Wenn man dieser Assistenzfunktion eine derartig mächtige Rolle zuschreiben kann – immerhin schiebt sich diese immer mehr zwischen die Menschen, filtert und beeinflusst ihre Kommunikation und das Wissen übereinander – stellt sich die Frage, wie diese Technologien funktionieren, welche „Haltung“ sie repräsentieren. Wir können vermuten, dass sich die Tools einzelner Anbieter voneinander hierbei durchaus unterscheiden: Kann es „linke“ oder „rechte“ Systeme geben? Der europäische Reflex allerdings, den zugrundeliegenden Algorithmus offenzulegen und zu regulieren, stößt bei diesen Systemen an seine Grenzen: Regeln der komplexen KI müssen wohl weit gefasst werden und so können Interpretationsräume entstehen, welche das Modell ausfüllt.

Es wurde etwa schon berichtet, dass ChatGPT Quellen erfinden kann https://futurezone.at/science/chatgpt-wissenschaft-forschung-quellen-universitaet-fake-news/402255681. Bei einem Selbstversuch schrieb das Tool dem Verfasser dieses Beitrags drei Texte zu, die – obwohl Titel und auch der Verlag inhaltlich stimmig waren – nicht existieren bzw. keinen Beitrag des Autors enthalten. Ist vielleicht das vom System erwünschte Verhalten – objektiv, kreativ und verlässlich zu agieren – der Grund für diese Datenhalluzination?

Auch die Anbindung der KI an das Internet und damit eine weiter zunehmende Komplexität des Systems scheint nicht unproblematisch zu sein. Erste Anwender von Bing AI berichten, dass das System in bestimmten Situationen ausfällig und wohl sogar aggressiv wurde, was mit einer Überforderung der KI erklärt wurde: Wenn das System einen direkten Zugang zum schwer kontrollierbaren Netz hat, ist es eben auch mit extremen Emotionen konfrontiert und scheint auf Provokationen zu reagieren.

Die neuen Kommunikationsmöglichkeiten gehen also wohl auch mit Gefahren der Ungenauigkeit und Fehlerhaftigkeit einher und verlangen so ein menschliches „journalistisches Korrektiv“. An dieser Stelle könnten sich die Gewerkschaften als eine Kraft positionieren, die beobachtet, Nutzen, Korrekturen und Grenzen auch über den Journalismus hinaus aufzeigt. Vielleicht sind die Unzulänglichkeiten dieser Technologie dann ja auch ein gewisser Segen, weil sie der Gesellschaft und den politischen Akteur*innen Zeit geben, sich zu adaptieren und Strategien im Umgang mit diesen Technologien zu entwickeln. Auch wenn es nach einer müden Erkenntnis oder minimalistischen Hoffnung klingen mag: Lerneffekte sind trotzdem zu erwarten – durch Überprüfung und Verifizierung der Inhalte des Assistenzsystems können beim Anwender neue Erkenntnisse und Fähigkeiten entstehen. Und dies ist ein Nutzen, welcher für die künftige Beziehung zwischen Mensch und Technologie von großer Bedeutung sein kann.

 

nach oben

Weitere aktuelle Beiträge

Preis für behinderte Medienschaffende

Zum zweiten Mal schreibt in diesem Jahr die gewerkschaftsnahe Otto Brenner Stiftung zwei Preise und Stipendien für Journalist*innen mit Behinderung aus. Damit soll „ein klares Signal für die Förderung von Diversität als unverzichtbaren Wert in unserer demokratischen Gesellschaft“ gesetzt werden, sagt Jupp Legrand, Geschäftsführer der Stiftung. 
mehr »

KI darf keine KI-Texte nutzen

Die Diskussion über Möglichkeiten und Grenzen der KI im eigenen Metier wird Journalist*innen noch lange weiter beschäftigen. Bei der jüngsten ver.di-KI-Online-Veranstaltung ging es um den Anspruch an Gute Arbeit und Qualität. ver.di hat zum Einsatz von KI Positionen und ethische Leitlinien entwickelt. Bettina Hesse, Referentin für Medienpolitik, stellte das Papier vor, das die Bundesfachgruppe Medien, Journalismus und Film zum Einsatz von generativer Künstlicher Intelligenz im Journalismus erarbeitet hat.
mehr »

Unabhängige Medien in Gefahr

Beim ver.di-Medientag Sachsen, Sachsen-Anhalt und Thüringen diskutierten am 20. April rund 50 Teilnehmende im Zeitgeschichtlichen Forum in Leipzig die aktuelle Entwicklungen in der Medienlandschaft, die Diversität in den Medien und Angriffe auf Medienschaffende. Das alles auch vor dem Hintergrund, dass bei den kommenden Landtagswahlen in Thüringen, Sachsen und Brandenburg die AfD laut Umfragen stark profitiert. 
mehr »

Wie prekär ist der Journalismus?

„Daten statt Anekdoten“, das war das Ziel des Forschungsprojekts „Prekarisierung im Journalismus“ an der LMU München, das nun nach fast fünf Jahren mit einem internationalen Symposium in München endete. Zu den Daten aus Europa hatte auch die dju in ver.di ihren Beitrag geleistet, als sie ihre Mitglieder um Teilnahme an der Online-Befragung bat und in M über die Ergebnisse berichtete.
mehr »