Künstliche Intelligenz im Arbeitsprozess gestalten: ver.di ist dabei!
Maschinen schreiben journalistische Texte, ein Supercomputer komponiert klassische Musik, die nur noch Experten von einem echten Orchesterstück unterscheiden können: KI-basierte Technologien erfassen immer mehr Lebens- und Arbeitsbereiche und sind nunmehr auch in der Lage, Kreativarbeit zu leisten. Was bedeutet das für Politik und Gesellschaft? Und welche Antworten haben wir aus gewerkschaftlicher Sicht auf die Gestaltung von Technologien Künstlicher Intelligenz? Eine erste Bestandsaufnahme.
Wir schreiben das Jahr 2030: „KI in deutscher Verantwortung ist ein Markenzeichen dafür geworden, wie man umsichtig mit Systemen Künstlicher Intelligenz umgeht. Weltweit gelten deutsche Ethikprinzipien und Normen als beispielgebend. Die Souveränität der Menschen zu wahren, das ist ein zentraler Leitgedanke für die Regeln und Funktionsmechanismen geworden, die in Deutschland entwickelt worden sind. Verkehrsstaus gibt es kaum noch, mit Künstlicher Intelligenz ist die Verkehrssteuerung vorausschauender geworden. Ärzte nutzen Systeme, die mit Künstlicher Intelligenz arbeiten, als Ratgeber bei Diagnose und Therapie. Die Bundesagentur für Arbeit nutzt KI-Systeme, um Arbeitssuchenden und Berufseinsteigern Prognosen über die Arbeitsmarktchancen der Zukunft zu geben. In Deutschland ist es selbstverständlich, dass Effektivitätsgewinne, die mit KI erzielt wurden, auch zu Gunsten einer Verkürzung der Arbeitszeit genutzt werden. Die Beschäftigten im Dienstleistungssektor schätzen die Entwicklung, weil sie jetzt mehr Zeit für Bürger, Kunden, Mandanten, Schüler und für sich selbst haben.
Die Euphorie über autonome Maschinen ist verklungen, hierzulande spricht man jetzt von intelligenten Assistenzsystemen, die unliebsame Arbeiten übernehmen und den Menschen eine bessere Entscheidungsgrundlage bieten. Die Systeme überschreiten die sensorische und die Kombinationsfähigkeit des Menschen, können viel schneller unübersehbare Datenmengen auswerten, als dass mit der sinnlichen Wahrnehmung und den geistigen Fähigkeiten des Menschen organisiert werden kann. Schule und Ausbildung qualifizieren für die Zusammenarbeit mit Systemen der Künstlichen Intelligenz und vermitteln Beurteilungsvermögen gegenüber derartigen Systemen. In der betrieblichen Weiterbildung wird längst die Entwicklung eigener Bots vermittelt. Dabei wird auch gelernt, welches Maß an Transparenz für die Prinzipien, Funktionsmechanismen und die Entscheidungsparameter maschineller Entscheidungen den Beschäftigten und Betroffenen gegenüber geschaffen werden muss. Neben kürzeren Arbeitszeiten haben die Produktivitätsgewinne durch KI zu einem Ausbau des Systems sozialer Sicherung geführt, eine Wertschöpfungsabgabe zwingt Unternehmen, Teile der Rationalisierungsgewinne in soziale Sicherheit zu transferieren. Betriebliche Interessenvertretungen haben bedeutende Mitbestimmungsrechte beim Einsatz von KI-Systemen im Betrieb und umfassende Rechte zum Schutz der Persönlichkeit der Beschäftigten.“ Das ist die Vision von Lothar Schröder, Mitglied des ver.di-Bundesvorstands und Leiter des Fachbereichs 9 Telekommunikation, Informationstechnologie, Datenverarbeitung.
Suche nach Gestaltungsmustern
Außerdem ist Schröder zuständig für die Bereiche Innovation und „Gute Arbeit“. Gemeinsam mit seinem Team hat er in den vergangenen Monaten nach Gestaltungs-, Verständnis- und Ordnungsmustern von KI-basierten Technologien gefragt und ein „soziales Pflichtenheft KI“ erarbeitet, das nun als Grundlage für eine breite gewerkschaftliche Debatte dienen soll. Denn die Uhr tickt immer schneller, schlägt mindestens schon viertel vor Zwölf. Im Februar hat die Expertenkommission Innovation und Forschung (EFI) in ihrem aktuellen Gutachten zu Forschung, Innovation und technologischer Leistungsfähigkeit Deutschlands der Bundesregierung dringend die Einsetzung einer Enquête-Kommission des Bundestags empfohlen. Diese soll den gesellschaftlichen Dialog bündeln und Entwicklungsprinzipien erarbeiten, die eine Kontrolle und Anpassung von KI auf Grundlage konsensfähiger ethischer Prinzipien gewährleisten. „Und ver.di ist mit dabei, wenn diese Debatte stattfinden wird“, kündigt Schröder an. Bis dahin müsse man nach Gestaltungsmustern suchen, um im richtigen Moment die richtigen Antworten parat zu haben: „Wir müssen uns fragen, was wir wollen, was wir wie kontrollieren, wo die Grenzen sind, wie viel Autonomie wir KI gewähren und wie weit unsere Umsicht reicht“, benennt er die Kernfragen dieser Suche nach Antworten, die nun begonnen habe.
Nützlichkeitsvision und Ethikregeln
Die Nutzenpotenziale Künstlicher Intelligenz sind erheblich, auch was die Erleichterung von Arbeitsprozessen betrifft. Schröder plädiert jedoch dafür, eine Nützlichkeitsvision zu entwickeln, die festlegt, welche Aufgaben KI für den Menschen erledigen kann und welche Arbeitsprozesse hingegen dem humanen Akteur überlassen bleiben sollten. Wenn etwa die Telekom, so wie dieser Tage geschehen, die Regel festlegt, das den Kundinnen und Kunden, die im Call Center anrufen, offengelegt wird, wenn sie mit einem Chatbot kommunizieren, dann sei das ein hilfreiches ethisches Prinzip, aber noch keine Nützlichkeitsversion. Nützlich wäre es dagegen aus Sicht des Call Center-Mitarbeiters, wenn KI das Gespräch mit einem Kunden vorbereitet, die eigentliche Beratung aber von einem Menschen übernommen wird, die zwischenmenschliche Kommunikation also weiter im Vordergrund steht.
Diese Nützlichkeitsvision müsse dennoch von klaren Ethikregeln flankiert werden, die an Grundwerte gebunden sind. Als Beispiel für diese ein wenig abstrakte Formulierung nennt Schröder die Ergebnisse der von Bundesverkehrsminister Alexander Dobrindt im Herbst 2016 eingesetzten Ethikkommission zum autonomen Fahren: Ein Dilemma, mit dem sich die Expert_innen damals beschäftigten, war die Frage, was ein selbstfahrendes Auto tun solle, wenn vor ihm ein Kind auf die Straße läuft, es, um auszuweichen, aber in eine Gruppe Menschen auf dem Bürgersteig fahren müsste. Darf ein Algorithmus überhaupt eine solche Entscheidung treffen? Geht es nach Schröder, nein. Denn einem KI-basierten System stehe keine Entscheidung über den Wert des Menschen zu und es müsse demnach an Grundrechte gebunden sein. Grundsätzlich betrachtet zeigt dieses Beispiel aber auch, dass im Umgang mit KI Assistenzsystemen gegenüber autonomen Systemen der absolute Vorrang zu geben sei. Weitere notwendige Ethikprinzipien sieht Schröder etwa in einer Kennzeichnungspflicht für Chatbots, einem Verbot autonomer Waffensysteme, der Definition einer Verantwortlichenstelle und in der Rechenschaftspflicht über die Funktionsmechanismen und Entscheidungsparameter beim Einsatz von KI-Systemen. Wenn ein Unternehmen bei der Bewerberauswahl mit Algorithmen arbeitet, dann müsse auch offengelegt werden, nach welchen Kriterien dies erfolgt, fordert er. In diesem Zusammenhang sei es zudem unerlässlich, endlich einen Whistleblower-Schutz einzuführen. Denn damit werde sichergestellt, dass die Gesellschaft erfährt, wenn gegen derartige Ethikregeln verstoßen wird.
„Wir müssen gerade als Gewerkschaften antreten, darüber zu reden, wie wir eigentlich die Rationalisierungsgewinne verteilen, die durch den Einsatz von KI entstehen.“ Schröder glaubt, dass diese gewaltig sein werden. „Was passiert mit diesen Erträgen? Kommen sie der Gesellschaft zu Gute?“ Eine Antwort auf diese Frage müsse sein, die Wertschöpfungsabgabe zu Gunsten gesellschaftlicher Bedarfsförderung wieder auf die politische Agenda zu setzen. Daneben sei auch eine gesellschaftliche Debatte darüber nötig, wo neue Beschäftigung entstehen kann. Denn: „KI wird zu Beschäftigungsverlust führen“, ist er überzeugt.
Mitbestimmung neu denken
Der Einsatz von Künstlicher Intelligenz in den Betrieben stellt die Mitbestimmungsakteure vor neue Herausforderungen. „Die Gewerkschaften müssen ihre frühzeitige Beteiligung am Einsatz solcher Systeme einfordern“, sagt Schröder. Bei der Beratung der Betriebsräte habe man allerdings ein Problem: Zum § 87 Abs.1 Nr.6 des Betriebsverfassungsgesetzes (BetrVG), der die Mitbestimmung festschreibt bei der „Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen“, habe sich in den vergangenen Jahren eine Handlungsnorm etabliert, die den Fähigkeiten Künstlicher Intelligenz nicht mehr gerecht werde. „Bisher war es ausreichend zu beschreiben, was in ein System reinkommt, und zu beschreiben, was rauskommen darf, und das relativ präzise.“ Bei Künstlicher Intelligenz, deren Wesen und Unterscheidungsmerkmal zu „lediglich“ intelligenten Algorithmen, so Schröder, ja gerade die Fähigkeit sei, zu lernen und sich selbstständig weiterzuentwickeln bzw. zu optimieren, stoße diese Handlungsnorm an ihre Grenzen. Deswegen müssten die Gewerkschaften Erfahrungen sammeln, brauchten etwa auch eine KI-Beratung für Mitbestimmungsakteure. Priorität im Betrieb müsse außerdem der Einsatz für die Wahrung der Autonomie und der Persönlichkeitsrechte der Nutzer_innen wie der Beschäftigten haben.