Intelligenz in Zeiten von ChatGPT

#krassmedial Sommerakademie im August 2023 im ver.di-Bildungs- und Begegnungszentrum Clara Sahlberg am Berliner Wannsee Fotos: Charles Yunck

Künstliche Intelligenz im Journalismus: Was kann sie, was darf sie, wie nutzen wir sie, wer checkt ihre ausgeworfenen Fakten, wer verantwortet die Ergebnisse – bleibt das Urheberrecht auf der Strecke? Die ver.di-Sommerakademie #krassmedial gab einige Antworten, fokussierte auf Probleme und formulierte Anforderungen für die redaktionelle Arbeitswelt. Workshops über den Schutz von Journalist*innen, ergänzten das anspruchsvolle Programm am Berliner Wannsee.

Seit vergangenem November ist ChatGPT (Chatbot Generative Pretrained Transformer) in aller Munde. Das Sprachmodell der US-amerikanischen Firma Open AI hat viel Aufmerksamkeit auf und viele Spekulationen nach sich gezogen. Denn es kann Texte erzeugen, Geschichten erfinden und sogar programmieren. Welche Auswirkungen auf die Gesellschaft solch ein Werkzeug hat, das selbstständig Aufgaben erledigt und Antworten liefert, ist nicht absehbar. Daher brauchen wir eine Debatte darüber, wie KI die Gesellschaft prägt, wie man sinnvoll damit arbeiten kann, was man vermeiden, was man lernen muss und wie sich Organisationen auf diese technologischen Veränderungen einstellen müssen. Diese und weitere Themen rund um die Künstliche Intelligenz werden uns längerfristig begleiten, unabhängig von den Konjunkturen der medialen Aufmerksamkeit.

Der iPhone-Moment für KI

Welch große technische und gesellschaftliche Innovation ChatGPT darstellt, beschrieb der Chef des Grafikkartenherstellers Nvidia, Jensen Huang, als „iPhone Moment der künstlichen Intelligenz“. Mit der Einführung des Apple iPhones 2007 hatte sich das ganze technische Potenzial der frühen 2000er Jahre in einem Gerät materialisiert, das jede*r in der Tasche haben konnte und das die persönlichen Lebensgewohnheiten, die Kommunikationsformen und selbst unseren Umgang mit dem Internet radikal verändert hat. Es war ein Produkt, das viele tiefgreifende Neuerungen greifbar gemacht hat. Ebendies kann man heute auch für ChatGPT sagen.

Denn obwohl wir schon früher über Künstliche Intelligenz diskutiert und sie genutzt haben – jede Google-Anfrage nutzt im Grunde Künstliche Intelligenz – war es bisher dennoch eine Fachdebatte. Sie war vor allem geprägt vom Diskurs über die „Industrie 4.0“, über „vorausschauende Instandhaltung”, einem auf der Auswertung von Prozess und Maschinendaten basierenden Wartungsvorgang.

Mit ChatGPT gibt es nun ein Instrument, das jede*r einfach selbst ausprobieren und damit Erfahrungen sammeln kann. Es war ein diskursiver Coup, dass man sie einfach ins Netz stellte und die Nutzer*innen machen ließ. Jede*r erzählte seinen Freund*innen und Bekannten von dem neuen Bot. Die sozialen Medien kannten kaum ein anderes Thema. Dabei macht es natürlich einen Unterschied, ob man KI privat nutzt oder im Beruf.

Hintergrund der rasanten KI-Entwicklung

Bei der vorhergehenden Generation von Künstlicher Intelligenz, den sogenannten Expertensystemen, hatten Programmierer*innen noch die Regeln für die KI-Systeme bestimmt. Beim maschinellen Lernen lernt das System hingegen durch Daten selbstständig. Die Sprünge im maschinellen Lernen basieren auf massenhaft verfügbaren Daten. Zudem ist die Rechenleistung von Computern in den letzten Jahrzehnten exponentiell gestiegen. So können diese gigantischen Datenmengen bearbeitet und die Daten vernetzt werden. Diese Fortschritte haben nicht nur die wachsende Rechenleistung von Computern ermöglicht, sondern auch eine neue Klasse von neuronalen Netzwerken, so genannte Transformer.

#krassmedial: Keynote-Speaker Florian Butollo. Leiter der Forschungsgruppe „Arbeiten mit Künstlicher Intelligenz“ am Weizenbaum-Institut
Foto: Charles Yunck

Aus den großen Datensätzen entwickelte man Modelle, die im Grunde Worte erraten. Grob gesagt gibt es dafür zwei Verfahren: Entweder liegt ein Lückentext zugrunde und das Computerprogramm kann auf Grundlage großer Textbestände, die es im Internet auswendig gelernt hat, mit relativ hoher Wahrscheinlichkeit das richtige Wort für die Lücke finden. Oder es ist ein Satz, der abbricht. Dann wird das nächste Wort erraten. Das macht Transformer-Modelle aus. Interessanterweise funktioniert das nicht nur bei Texten, sondern auch bei Bildern und sogar bei Programmiercodes.

Ein weiterer Grund für die rasante Entwicklung von KI ist ihre Rolle im Plattformkapitalismus. Das ist keine rein technische Entwicklung, sondern eine, die geprägt ist vom Wettlauf der großen Oligopole der Internetgiganten. Sie zeichnen sich dadurch aus, dass sie Datenmengen kontrollieren und Rechenleistung finanzieren können sowie die entsprechende Cloud-Infrastruktur haben, um das Ganze laufen zu lassen. Nun geht es darum, wer als erstes die beste KI auf diese Datenakkumulationsmaschinen aufsetzt. Diese Dynamik prägt auch die Form, wie KI bei uns gesellschaftlich ankommt. Es werden Fakten geschaffen. Private Unternehmen mit sehr viel Macht gestalten die Art der KI-Entwicklung.

Probleme für die Demokratie

Daraus entstehen medien- und demokratietheoretische Probleme. Eine Technik wird in die Welt gesetzt und erst danach kümmert man sich um die Regulierung. Dass es die Technik bereits vor der Regulierung gibt, ist kein neues Phänomen. Das war beim Automobil ebenso. Man hat nicht begonnen, Ampeln zu bauen, bevor das erste Auto fuhr. Doch ein Problem ist derzeit, wie schnell die KI-Systeme vermarktet werden und wie stark die technischen Neuerungen an die Interessen der großen Internetkonzerne gebunden sind sowie wie weitreichend der Einschnitt des technischen Wandels ist. Bei ChatGPT geht es in der Tat um den Umgang mit dem Wissen der Menschheit und die Art und Weise, wie dieses Wissen verarbeitet wird. Die Frage, wie man damit politisch umgeht, welche Maximen für den Umgang es mit der Materie geben kann, sollte von Anfang an im Zentrum unseres Diskurses stehen.

Wie Technik im Sinne gesellschaftlicher Zwecke eingesetzt werden kann, erforschen wir am Weizenbaum-Institut. Joseph Weizenbaum, nach dem das Institut benannt ist, war 1966 der Erfinder des ersten Chatbots, eines Computerprogramms namens „Eliza“. Das Programm lief noch nicht auf der Grundlage maschinellen Lernens. Es war ein Expertensystem, Weizenbaum hatte also die Regeln selbst festgelegt. Simuliert wurde unter anderem eine Therapiesitzung. Weizenbaum stellte das Programm seinen Sekretär*innen und Mitarbeiter*innen zur Verfügung und beobachtete, was sie damit taten. Er war erstaunt, dass sie alle dem Computer Intelligenz zuschrieben. Sie unterhielten sich wie mit einem Menschen, tippten privateste Erfahrungen ein und nahmen die Rückmeldungen des Programms vollkommen ernst. Weizenbaum reflektierte sehr stark, dass es ein Problem sei, wenn die Technik als intelligent wahrgenommen wird und ihr agency (Handlungsträgerschaft) zugeschrieben wird. Denn klar ist, dass Technik ein Produkt der menschlichen Gesellschaft ist und die Gesellschaft auch die Kontrolle über die Technik haben sollte. Weizenbaums Lebensthema war, zu erforschen wie die Gesellschaft die moderne Technik kontrollieren und im Sinne gesellschaftlicher Zwecke einsetzen kann, vor allen Dingen in Bezug auf intelligente Waffensysteme. Interessant sind seine Schriften über die Unterschiede zwischen menschlicher und künstlicher Intelligenz, denn Intelligenz ist nicht gleich Intelligenz.

Woher stammt der Begriff KI?

Der Begriff Künstliche Intelligenz war eigentlich ein Marketing-Coup. Er geht zurück auf eine Konferenz in Paris von 1951 über verschiedene maschinelle Rechenmethoden. Diese wurden Künstliche Intelligenz genannt. Das sorgte für große Aufmerksamkeit. Dieser erfundene Begriff hat auch die Forschung immer wieder beeinflusst. Neuronale Netzwerke sind zwar dem menschlichen Gehirn zu einem gewissen Grade nachempfunden. Aber Künstliche Intelligenz funktioniert komplett anders als menschliche Intelligenz. Diese ist in vielen Belangen der Künstlichen überlegen, zum Beispiel beim Fällen von Werturteilen. Künstliche Intelligenz ist hingegen überlegen, wenn es zum Beispiel darum geht, in Milliarden von Bildern Ähnlichkeiten zu identifizieren oder Unregelmäßigkeiten zu finden. Es sind unterschiedliche Fähigkeiten, Stärken und Schwächen, die die Menschen nutzen können. Aber sie sollten sich bewusst sein, dass Maschinen eben nur vermeintlich intelligent sind.

Dasselbe gilt für Begriffe wie Lernen. Beim maschinellen Lernen und bei sogenannten Large Language Models (LLM) gibt es eine Kluft zwischen den Berechnungen, die das System ausspuckt, und dem Verständnis der Inhalte, um die es geht. Künstliche Intelligenz kann faszinierende Texte produzieren, etwa Liebesbriefe im Stil von Rilke, aber das System versteht nicht, was sie bedeuten. Es gibt keine Deutung. Es sind rein statistische Regelmäßigkeiten. In der Forschung ist höchst umstritten, ob diese epistemische Kluft jemals geschlossen werden kann. Entsprechend ist in Bezug auf die Arbeitswelt oder die Interaktion zwischen Mensch und Maschine die Metapher der „hybriden Intelligenz“ eine brauchbare Annäherung.

Menschen können die Stärken der Künstlichen Intelligenz nutzen, sie müssen aber auch lernen, mit ihr umzugehen. Es bedarf der komplementären Adaptivität. Man muss die Grenzen der KI kennen und gleichzeitig ihre Möglichkeiten verstehen. LLM haben große Potenziale in Bezug auf die Bündelung bestehender Informationen. KI-Systeme ermöglichen die Teilautomatisierung der Content-Produktion von Text, Bild und Code. Sie können die menschliche Kognition und Kreativität unterstützen. Etwa im Sinne eines Brainstorming-Tools, zum Beispiel um Überschriften zu finden. Oder als Sparringpartner, in dem man Redundanz in die eigenen Arbeitsprozesse einbaut. Man lässt KI etwas erstellen und erstellt selbst etwas und vergleicht, wo die Stärken und Schwächen liegen und entwickelt daraus eine bessere Version.

Probleme löst der Mensch

Es geht nicht nur darum, dass KI menschliche Tätigkeiten ersetzt, sondern auch darum, dass Menschen ganz neue Dinge tun können. Kreativität ist immer etwas, das mit menschlicher Interpretation der Welt und der künstlerischen Umsetzung zu tun hat. Was nicht heißt, dass Künstler*innen nicht mit KI arbeiten können und dem wieder eine neue Bedeutung und Form geben. Man sollte in Bezug auf die Handlungsträgerschaft nicht vergessen, wer Urheber*in dessen ist, was die KI macht. Die „Problemlösungsmaschine“ ist aber nicht die KI, sondern Probleme löst der Mensch, der KI sinnvoll einsetzt. Letztlich geht daher alles um die sogenannten Prompts. Also Fragen, Befehle und Arbeitsaufträge, die man eingibt, um ein sinnvolles Ergebnis zu erzielen.

Menschen können und werden neue Erfahrungen sammeln, wie man mit KI sinnvoll arbeiten kann. KI hat aber auch Grenzen, sie kann eben keine Werturteile fällen und tut sich mit der Kontextualisierung von Inhalten meist sehr schwer. Wir stehen deshalb vor der Herausforderung zu entscheiden, ob das, was zum Beispiel LLM ausspucken, für unseren jeweiligen Bereich sinnvoll passt oder nicht. Mancher Output ist faktisch auch völlig falsch. Man könnte zwar einwenden, dass es auch schon ein großer Fortschritt sei, ein Tool zu haben, das in 95 Prozent der Fälle richtigliegt. Aber bei vielen Aufgaben kommt es darauf an, dass das Ergebnis absolut verlässlich ist. KI vermittelt nur den Anschein von Objektivität und ist immer nur so gut wie der Datensatz, der in ihr steckt, und jeder Datensatz hat eine gewisse Bias (Datenverzerrung), ob wir wollen oder nicht.

Ein weiteres relevantes Thema für die Demokratie ist, nach welchen Kriterien man die KI-Systeme kuratiert, damit der ganze Schrott aus dem Internet nicht ungefiltert bei den Konsument*innen ankommt. Wenn man beispielsweise bei ChatGPT politisch sensible Themen anspricht, bekommt man eine moderierte Antwort, die nach politischen Kriterien gestaltet wurde. Das ist zu befürworten. Allerdings legt ein privates Unternehmen die Maßstäbe dafür fest. Das ergibt ein Legitimitätsproblem: Nach welchen Maßstäben werden Texte zusammengefasst, wird entschieden, was sagbar ist und was nicht?

Umgang mit generativer KI

Die Prognose, man werde durch technologischen Fortschritt arbeitslos, steht immer wieder im Raum. Sie ist so alt wie die Industrialisierung selbst. 2013 hieß es in einer US-Studie, bis zu 47 Prozent der Arbeitsplätze würden durch Digitalisierung oder KI substituiert. Doch die Realität ist, dass es in den vergangenen acht Jahren in Deutschland einen absoluten Zuwachs an Beschäftigung gab, trotz Automatisierung. Dafür gibt es mehrere Gründe. Erstens liegt solchen Studien meist ein Anbieter-Bias zugrunde. Technologieunternehmen überschätzen einerseits die Leistungsfähigkeit der Technik, andererseits wird die Vielfalt der menschlichen Arbeit meist unterschätzt. Zweitens wird nicht jedes technische Potenzial auch umgesetzt. Die Umsetzung von Digitalisierungsprojekten ist immer auch eine Kosten-Nutzen-Frage sowie ein Vortasten und Ausprobieren. Das ist auch für die generative KI wichtig, denn Unternehmen müssen investieren, um sie einzusetzen: Software muss erworben und eingeführt werden, während die Arbeitsorganisation umgestellt und die Mitarbeiter*innen weiterqualifiziert werden müssen. Der reale technische Wandel ist also viel aufwendiger, als es in vielen Studien suggeriert wird.

Drittens und am Wichtigsten: Die Substitution von Tätigkeitsaspekten ist nicht gleichbedeutend mit dem Wegfall von Arbeitsplätzen. Historisch gesehen haben sich durch Automatisierung Tätigkeitsschwerpunkte verlagert. Berufsprofile haben sich verändert, sie sind aber nicht verschwunden. Viertens: Die Digitalisierung erzeugt selbst Nachfrage nach Arbeit. Wir haben einen Mangel an Programmierer*innen, an Webdesigner*innen und in anderen Schlüsselfunktionen der Digitalisierung. Das sind Tätigkeiten, die erst in den letzten Jahren entstanden sind und für die nun ein erhöhter Bedarf besteht. Schließlich verändern sich Unternehmen und Produkte laufend. Automobile, Handys, Computer, Finanzdienstleistungen, all diese Produkte werden vielschichtiger. Insgesamt hat das Niveau der Komplexität in der Ökonomie zugenommen und entsprechend sind auch die Produktionsprozesse verästelter. Das macht die Automatisierung komplexer und damit zu einer Daueraufgabe.

Thesen für KI in der Arbeitswelt

Vor diesem Hintergrund lassen sich einige Thesen zu den Folgen generativer KI für die Arbeitswelt formulieren: Es geht nicht mehr nur um die Veränderung von Routinetätigkeiten und um geringqualifizierte Jobs. Das war der Fokus der Automatisierungsdebatte der letzten Jahre. Jetzt geht es um Automatisierung in der Wissensarbeit. Generative KI erfordert umso mehr Arbeit – der Einordnung und der Interpretation. ChatGPT ist beispielsweise erst einmal nur ein Modell, das Wahrscheinlichkeiten und Ähnlichkeiten ausgibt und Wörter errät. Umso wichtiger ist es, dieses Tool richtig bedienen zu können und die Fähigkeit zu besitzen, die Ergebnisse einzuschätzen und in den spezifischen Kontext einzuordnen. In der Arbeit mit generativer KI bildet sich neues Erfahrungswissen heraus. Das erfordert neue Skills und Qualifizierung. Insofern ist es auch für Gewerkschaften ein wichtiges Thema, wie die Aus- und Weiterbildung gemäß den Interessen der Beschäftigten organisiert werden kann. Wenn KI in der Arbeitswelt ankommen soll, muss dies sehr stark von den Beschäftigten getrieben sein. Denn das Management kann den Beschäftigten nicht top-down erzählen, wie sie so ein Tool in ihrem spezifischen Aufgabenfeld einsetzen. Die Einführung von generativer KI ist darauf angewiesen, dass die Beschäftigten die Möglichkeit bekommen, damit zu experimentieren. Man kann das als einen dezentralen Innovationsprozess auffassen.

Im Journalismus stellt sich etwa die Frage, ob es nicht eine stärkere Gewichtung von Textgattungen und Tätigkeitsaspekten gibt, bei denen die menschliche Expertise besonders wichtig ist. Es geht um die klassischen Tugenden guter journalistischer Praxis: Recherche, Faktenchecks, Überprüfung von Quellen.

Die Glaubwürdigkeit von Information prüfen zu können, wird eine Schlüsselfähigkeit bleiben und in Zukunft noch wichtiger werden. Hinzu kommen neue Kompetenzen, die man entwickeln und pflegen sollte. Es gibt vieles, was KI heute nicht ist und es besteht immer die Gefahr, dass die Technik überschätzt oder falsch eingesetzt wird. Wir sollten uns dennoch darauf einlassen und die Fertigkeiten ausbilden, mit KI vernünftig umzugehen. Denn KI wird uns künftig immer begleiten. ‹‹

Der Beitrag ist eine stark gekürzte und bearbeitete Version der auf der #krassmedial-Sommerakademie gehaltenen Keynote zum Thema „Zwischen Hype und Dystopie – zur Bedeutung von KI für den Journalismus und unsere Gesellschaft”.

Hier ein „Werkzeugkasten“ mit allen in diesem Fokus genannten Tools und deren Links. 

 

 

nach oben

Weitere aktuelle Beiträge

KI: Menschen wollen Regeln

Rund drei Viertel der Menschen in Deutschland sorgen sich einer Umfrage zufolge um die Glaubwürdigkeit der Medien, wenn Künstliche Intelligenz (KI) im Spiel ist. 90 Prozent der Befragten fordern dazu klare Regeln und Kennzeichnungen. Dies ergab eine am Mittwoch in Berlin veröffentlichte Studie der Medienanstalten. Für die repräsentative Erhebung "Transparenz-Check. Wahrnehmung von KI-Journalismus" wurden online 3.013 Internetnutzer*innen befragt.
mehr »

Lokaljournalismus: Die Wüste droht

Noch sei es nicht so weit, aber von einer "Steppe" könne man durchaus schon sprechen, sagt Christian Wellbrock von der Hamburg Media School. Wellbrock ist Leiter von "Wüstenradar", einer Studie, die zum ersten Mal die bundesweite Verbreitung und zahlenmäßige Entwicklung von Lokalzeitungen in den letzten 30 Jahren unter die Lupe genommen hat. Sie erhebt, wie stark der Rückgang lokaler Medien inzwischen tatsächlich ist und warnt: In etlichen Regionen droht tatsächlich die Verbreitung von "Nachrichtenwüsten".
mehr »

Altersdiskriminierung beim WDR?

Der WDR serviert freie Mitarbeiter*innen ab, die im Rentenalter für den Sender arbeiten wollen. Damit tut er genau das Gegenteil von dem, was in der öffentlichen Diskussion derzeit geraten wird. Während Angestellte sich also über Jahre hinweg auf einen Termin für ihren Ruhestand vorbereiten konnten, wird langjährigen freien Mitarbeiter*innen nun mit kurzer Frist mitgeteilt, wann für sie angeblich Schluss sein soll. Altersdiskriminierung will man beim WDR aber nicht erkennen – für den Sender gehe es vielmehr darum, jüngeren Mitarbeitenden nicht den Einstieg zu blockieren.
mehr »

„PR-Puppen“ proben den Aufstand 

Kreative, die der Tech-Konzern OpenAI (ChatGPT, DALL-E) zu einem geschlossenen Produkttest eingeladen hatte, leakten den Testzugang kürzlich und griffen OpenAI in einem Protestschreiben öffentlich an. Sie warfen dem Unternehmen u.a. vor, sie für Marketing und PR zu missbrauchen und Art Washing zu betreiben.Eine teilnehmende Person schildert M , wie es zu dem Leak kam und was Techkonzerne künftig bei der Zusammenarbeit mit Kreativen besser machen können.
mehr »