Explosionswelle in Zeitlupe

Das unabhängige Forschungsinstitut Midjourney hat eine künstliche Intelligenz geschaffen, die aus Textbeschreibungen Bilder kreieren kann. Nach der beispielhaften Eingabe „digital artificial intelligence“ wurden u.a. diese vier Bilder gestaltet.

ChatGPT: Demokratisierung oder Fehlleitung der Massen?

Wie so oft bei technischem Fortschritt, hatte der Einsatz des auf einer KI basierten Dialogsystems ChatGPT den Effekt einer Explosionswelle in Zeitlupe: Sein Erscheinen war nach der langen Zeit des KI-Hypes beinahe überfällig, kam dennoch überraschend und mit Auswirkungen, die sich in verschiedene Richtungen ausbreiten. Auch wenn relativ schnell klar wurde, dass diese Innovation noch nicht in der Lage ist, menschliche Arbeit im großen Stil zu substituieren und auch Fehler und Lücken bekannt wurden, sind die Anwendungsmöglichkeiten für den Journalismus im Prinzip durchaus beeindruckend.

Obschon die Datenbasis von ChatGPT nur bis 2021 reicht und tagesaktuelle Berichterstattung deshalb nicht funktioniert, kann diese Technologie als eine Art intelligente Assistenzfunktion Recherchen, Interviewvorbereitungen und Quellensuchen unterstützen und auch den Text selbst verbessern bzw. „einfache“ Stücke und Passagen verfassen (https://mmm.verdi.de/podcast/). Weitere Entwicklungen von Mitbewerbern sind schon angekündigt und sollen dann aktuelle Daten über einen Zugang zu einer Suchmaschine nutzen (Bing AI), über eine Sprachsteuerung verfügen und auch digitale Kunst generieren können (Chatsonic): Ein umfassender, verlässlicher und kreativer „Partner“ im Web ist das Ziel.

Faszinierend sind damit auch die gesellschaftlichen Auswirkungen: Man könnte vermuten, dass dieses Tool jenen Menschen helfen kann, die weniger Routine beim Verfassen von Texten und limitierten Zugang zu Quellen haben. Dies könnte also dazu führen, dass die Qualität der Texte der „expressiven Crowd“ erhöht wird: „Bürgerjournalisten“ würden hiervon profitieren und damit vielleicht auch generell die Art der Kommunikation in der Gesellschaft verbessert werden. Diese würde sich mit der Zeit immer weiter entwickeln, da es zu positiven Lerneffekten führt, wenn man sich mit dem generierten Text und seinen Quellen auseinandersetzt. Vielleicht würde sogar eine neue Art von Rationalität und Objektivität Einzug halten? Habermas hatte ja bereits auf die Notwendigkeit des „kommunikativen Handelns“ in der Gesellschaft aufmerksam gemacht, in der die Beteiligten ihre individuellen Ziele unter der Bedingung verfolgen, „dass sie ihre Handlungspläne auf der Grundlage gemeinsamer Situationsdefinitionen abstimmen können.“

Könnte diese Situationsdefinition auch durch ChatGPT und andere Tools erfolgen? Zumindest könnte man erhoffen, dass durch eine qualitative Verbesserung des gesellschaftlichen Diskurses die negativen Folgen der fortschreitenden Machtzentralisierung ein Stück weit kompensiert werden, welche durch derartige Tools zutage treten: Diese befinden sich in den Händen von nichteuropäischen Technologiekonzernen, welche unbestimmte gesellschaftliche Verpflichtungen aufweisen. Natürlich würde ein derartiger breiter „Upgrade“ journalistischer Fähigkeiten Auswirkungen haben: Verbindungen von professionellem Journalismus und Bürgerjournalismus sind bisher gescheitert, auch weil man wohl einen Qualitätsverlust befürchtete, obwohl die ausgedünnten Redaktionen durchaus Unterstützung, insbesondere bei der regionalen Berichterstattung brauchen könnten.

Wenn man dieser Assistenzfunktion eine derartig mächtige Rolle zuschreiben kann – immerhin schiebt sich diese immer mehr zwischen die Menschen, filtert und beeinflusst ihre Kommunikation und das Wissen übereinander – stellt sich die Frage, wie diese Technologien funktionieren, welche „Haltung“ sie repräsentieren. Wir können vermuten, dass sich die Tools einzelner Anbieter voneinander hierbei durchaus unterscheiden: Kann es „linke“ oder „rechte“ Systeme geben? Der europäische Reflex allerdings, den zugrundeliegenden Algorithmus offenzulegen und zu regulieren, stößt bei diesen Systemen an seine Grenzen: Regeln der komplexen KI müssen wohl weit gefasst werden und so können Interpretationsräume entstehen, welche das Modell ausfüllt.

Es wurde etwa schon berichtet, dass ChatGPT Quellen erfinden kann https://futurezone.at/science/chatgpt-wissenschaft-forschung-quellen-universitaet-fake-news/402255681. Bei einem Selbstversuch schrieb das Tool dem Verfasser dieses Beitrags drei Texte zu, die – obwohl Titel und auch der Verlag inhaltlich stimmig waren – nicht existieren bzw. keinen Beitrag des Autors enthalten. Ist vielleicht das vom System erwünschte Verhalten – objektiv, kreativ und verlässlich zu agieren – der Grund für diese Datenhalluzination?

Auch die Anbindung der KI an das Internet und damit eine weiter zunehmende Komplexität des Systems scheint nicht unproblematisch zu sein. Erste Anwender von Bing AI berichten, dass das System in bestimmten Situationen ausfällig und wohl sogar aggressiv wurde, was mit einer Überforderung der KI erklärt wurde: Wenn das System einen direkten Zugang zum schwer kontrollierbaren Netz hat, ist es eben auch mit extremen Emotionen konfrontiert und scheint auf Provokationen zu reagieren.

Die neuen Kommunikationsmöglichkeiten gehen also wohl auch mit Gefahren der Ungenauigkeit und Fehlerhaftigkeit einher und verlangen so ein menschliches „journalistisches Korrektiv“. An dieser Stelle könnten sich die Gewerkschaften als eine Kraft positionieren, die beobachtet, Nutzen, Korrekturen und Grenzen auch über den Journalismus hinaus aufzeigt. Vielleicht sind die Unzulänglichkeiten dieser Technologie dann ja auch ein gewisser Segen, weil sie der Gesellschaft und den politischen Akteur*innen Zeit geben, sich zu adaptieren und Strategien im Umgang mit diesen Technologien zu entwickeln. Auch wenn es nach einer müden Erkenntnis oder minimalistischen Hoffnung klingen mag: Lerneffekte sind trotzdem zu erwarten – durch Überprüfung und Verifizierung der Inhalte des Assistenzsystems können beim Anwender neue Erkenntnisse und Fähigkeiten entstehen. Und dies ist ein Nutzen, welcher für die künftige Beziehung zwischen Mensch und Technologie von großer Bedeutung sein kann.

 

nach oben

Weitere aktuelle Beiträge

Wie ethisch kann KI berichten?

Ein ethischer Kompass ist angesichts zunehmender Desinformation immer wichtiger – für Journalist*innen, aber auch Mediennutzende. Positivbeispiele einer wertebewussten Berichterstattung wurden jüngst zum 20. Mal mit dem Medienethik Award, kurz META, ausgezeichnet. Eine Jury aus Studierenden der Stuttgarter Hochschule der Medien HdM vergab den Preis diesmal für zwei Beiträge zum Thema „Roboter“: Ein Radiostück zu Maschinen und Empathie und einen Fernsehfilm zu KI im Krieg.
mehr »

VR-Formate im Dokumentarfilm

Mit klassischen Dokumentationen ein junges Publikum zu erreichen, das ist nicht einfach. Mit welchen Ideen es aber dennoch gelingen kann, das stand auf der Sunny Side of the Doc in La Rochelle im Fokus. Beim internationalen Treffen der Dokumentarfilmbranche ging es diesmal auch um neue Erzählformen des Genres wie Virtual Reality (VR).
mehr »

krassmedial: Diskurse gestalten

Besonders auf Social-Media-Plattformen wie TikTok und Telegram verbreiten sich rechtsextreme Narrative, die zur Polarisierung der Gesellschaft beitragen. Wie Journalist*innen dem entgegen wirken und antidemokratische Diskursräume zurückgewinnen können, diskutierten und erprobten etwa 70 Teilnehmende der diesjährigen #krassmedial-Sommerakademie von ver.di am Wochenende in Berlin-Wannsee.
mehr »

KI-Bots: Kompletten Schutz gibt es nicht

KI-Bots durchstreifen das Netz, „scrapen“, also sammeln dabei auch journalistische Inhalte, um damit KI-Modelle wie Chat GPT zu trainieren. Welche technischen Maßnahmen können Journalist*innen ergreifen, um ihren Content zu schützen? Tipps des KI-Beraters Branko Trebsche.
mehr »