Matthias Spielkamp: Künstliche Intelligenz übernimmt keine Verantwortung
Algorithmen sind menschengemacht. Ihre Anwendung ist interessengeleitet, folgt Zielen, hat Wirkungen und Nebenwirkungen. Braucht es demnächst „Beipackzettel“, die über gesellschaftliche relevante Algorithmenanwendung aufklären? Wie kann in solchen Prozessen Transparenz geschaffen und Kontrolle gesichert werden? Fragen an Matthias Spielkamp von AlgorithmWatch.
M | Birgt die momentane Entwicklung in Sachen künstlicher Intelligenz mehr Risiken oder mehr Chancen?
Matthias Spielkamp | Wir haben keine Kriterien dafür zu bestimmen, welches Ergebnis wir uns wünschen, daher ist die Frage nicht zu beantworten. Man kann das mit der Entwicklung des Autos vergleichen: Es hat uns ungekannte Freiheiten verschafft und einen enormen Anteil an unserem gesellschaftlichen Wohlstand. Zugleich hat es zu Millionen Verkehrstoten weltweit und globaler Umweltzerstörung geführt. Wenn man also vor 100 Jahren gefragt hätte, ob die Entwicklung des Automobils mehr Risiken oder mehr Chancen bietet, dann können wir uns nicht einmal in der Rückschau darauf einigen, welche Antwort die richtige gewesen wäre.
Algorithmen werden im gesellschaftlichen Diskurs gerade fast wie gesellschaftliche Akteure behandelt, deren Macht zu fürchten ist. Liegt da ein Missverständnis vor? Oder gar Irreführung?
In jedem Fall ein Missverständnis, das aufgeklärt werden muss, denn es kann weitreichende negative Auswirkungen haben. Maschinen können keine Entscheidungen in einem starken, menschlichen Sinn treffen. Sie haben keinen eigenen, freien Willen, sie handeln nicht autonom auf der Grundlage von Absichten. Daher sind auch Begriffe wie „autonome Autos“ irreführend. Auf diese Art über Automatisierungsprozesse zu sprechen birgt das Risiko, dass wir Maschinen zu Subjekten erklären, die Verantwortung für ihr Handeln übernehmen können. Das würde aber bedeuten, dass Menschen ihre Verantwortung auf technische Prozesse abwälzen können.
Algorithmus
Ein Algorithmus löst ein mathematisches Problem. Digital beschreibt er einen für den Computer korrekt interpretierbaren Lösungsweg, der für jede durch das mathematische Problem definierte mögliche Eingabe die korrekte Lösung in endlicher Zeit berechnet.
Geschäftsgeheimnisse gibt es seit Jahrhunderten, sie sind nicht erst für Algorithmen und Software erfunden worden. Wir fordern, dass Prozesse, die Entscheidungen zum Teil automatisieren und die eine Auswirkung auf individuelle Rechte oder das Gemeinwohl haben, sehr gut erklärt werden müssen. Aber es hängt vom Kontext ab, wem und wie sie erklärt werden. So kann es zum Beispiel ausreichen, Prozesse für den Hochgeschwindigkeitshandel von Aktien, die algorithmisch gesteuert werden, der Finanzaufsicht gegenüber zu erklären. Normale Bürger_innen wären damit überfordert. Ihnen die Verantwortung dafür zu übertragen, diese Prozesse zu verstehen und auf der Grundlage eine Wahl zu treffen, wäre unsinnig und würde das Gegenteil von dem bewirken, was man erreichen will. Wenn es aber um Bonitätsprüfungen geht, sind wir sehr wohl der Ansicht, dass es dem Einzelnen viel besser als bisher erklärt werden muss, wie die Scores zustande kommen, die darüber entscheiden, ob jemand einen Baukredit erhält oder einen Mobilfunkvertrag. Es hängt also von der Anwendung ab, über die wir sprechen.
Und wie konkret kann eine Kontrolle gesichert werden? Welche Akteure sind, auch für einen möglichen Algorithmen-TÜV, gefragt?
Die Metapher eines Algorithmen-TÜVs ist aus zwei Gründen ungeeignet. Zum einen wird darunter häufig eine Vorab-Prüfung von Prozessen verstanden. Das ist aber nur in ausgewählten Fällen notwendig und wünschenswert – etwa, wenn es um medizinische Diagnose oder Behandlung geht. In vielen Fällen müssen wir akzeptieren, dass zu einer freiheitlichen Gesellschaft gehört, dass man nicht jede Entwicklung vorher auf mögliche Risiken prüfen muss, sondern dann haftet, wenn etwas schiefgeht. Da, wo Vorab-Prüfungen notwendig und gerechtfertigt sind, müssen sie von den Institutionen übernommen werden, die dafür geeignet sind: Die Bundesanstalt für Finanzdienstleistungsaufsicht, das Bundesinstitut für Arzneimittel und Medizinprodukte, das Kraftfahrt-Bundesamt oder andere.
Und ist alles, was technisch machbar ist, zulässig? Wer ist verantwortlich, wenn ein System unvorhergesehene oder schädliche Auswirkungen hat? Müssen wir uns bei Pannen auch künftig mit dem Sorry! eines Mr. Zuckerberg zufriedengeben?
In einem Rechtsstaat ist niemals alles zulässig, was technisch machbar ist. Aber auch hier kann nur mit Blick auf den konkreten Fall entschieden werden, was zulässig ist. So gibt es etwa schon lange eine Diskussion darüber, ob große Stadt-Geländewagen erlaubt sein sollen, da sie ein besonderes Risiko für andere Verkehrsteilnehmer darstellen. Aber so lange es keinen gesellschaftlichen Konsens gibt, sie zu verbieten, der sich in einem Gesetz niederschlägt, bleiben sie erlaubt und wir müssen mit den Folgen leben. So lange wir keinen Gesetzesverstoß nachweisen können, aber ein bestimmtes Verhalten dennoch für falsch halten, müssen wir andere Mittel nutzen, um Akteure dazu zu zwingen, mehr zu tun, als um Entschuldigung zu bitten – etwa öffentlichen Druck.
Die Personalisierung von Daten war ein technischer Entwicklungserfolg. Die Befürchtung, dass dadurch auch Filterblasen gebildet werden, ist vor allem mit Blick auf Facebook nicht ausgeräumt. Wie kann man dem Problem beikommen?
Filterblasen gehören zum menschlichen Leben. Wer eine bestimmte Tageszeitung liest, lebt in einer Filterblase. Es gibt keine belastbaren empirischen Belege dafür, dass das Internet im Allgemeinen oder Facebook im Besonderen dazu beigetragen haben, dass Menschen Informationen aus weniger Quellen bekommen als vorher und daraus problematische Verhaltensänderungen folgen.
Algorithmen zur Bestimmung von Relevanz und generell solche, die der Meinungsbildung dienen, wirken zunehmend „global“. Während im seriösen Journalismus zwischen Werbung und redaktionellem Text klar unterschieden wird, zielen algorithmische Systeme womöglich auf die Wählerin, den Konsumenten oder deren gesamtes Weltbild gleichermaßen. Erreicht Manipulation eine neue Ausprägung?
Nein. Die öffentliche Meinung in Deutschland wird durch die Lügenkampagnen der Bild-Zeitung mit großer Sicherheit noch immer wesentlich stärker beeinflusst als durch personalisierte Informationen bei Facebook. Das bedeutet nicht, dass wir nicht ganz genau prüfen sollten, welche Auswirkungen Informationsplattformen für den öffentlichen Diskurs haben. Aber Alarmismus ist fehl am Platz.
Doch braucht es nicht generell neue Regeln? Und wer sollte die aufstellen?
Es braucht zum Beispiel neue Regeln dafür, wie große Informationsplattformen wie Facebook und Google Inhalte kontrollieren – sowohl solche der klassischen Medienanbieter, als auch die der Nutzer. Es muss sowohl schnellere Reaktionen gegen rechtswidrige Inhalte geben als auch bessere Widerspruchsmöglichkeiten und Abhilfe für Nutzer, deren Beiträge ungerechtfertigt gelöscht werden. Zugleich sollten keine technologischen Verfahren genutzt werden, um Inhalte vor der Veröffentlichung zu filtern. Hier ist der Gesetzgeber gefragt, sowohl auf nationaler als auch auf EU-Ebene. Das gilt aber eben auch in dem Sinne, dass er bestimmte Anforderungen nicht stellt oder sogar Methoden verbietet, um die Meinungsfreiheit zu schützen. An diesem Prozess sollten aber alle so genannten Stakeholder beteiligt sein, also auch die Zivilgesellschaft, Unternehmen, Wissenschaft und technische Community. International ist das Internet Governance Forum der Ort, an dem diese Fragen verhandelt werden.
AlgorithmWatch hat auch ein Projekt aufgelegt, das sich mit der automatischen Leistungskontrolle von Arbeitnehmer_innen befasst. Worum geht es genau?
Unternehmen setzen zunehmend auf Systeme zur algorithmisch gesteuerten, automatisierten Entscheidungsfindung oder -vorbereitung im Personalmanagement. Wir wollen herausfinden, welche Funktionen sie den Anwendern – also den Unternehmen – und den Betroffenen – also den Beschäftigten – bieten, welche Informationen die Arbeitnehmer_innen über den Einsatz der Systeme haben und welches Mitspracherecht bei ihrem Einsatz besteht.
AlgorithmWatch
AlgorithmWatch wurde 2015 gegründet und arbeitet heute als gemeinnützige GmbH mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung (Algorithmic Decision Making ADM) zu analysieren und gesellschaftlich einzuordnen. Die Organisation, in der Presse bereits als „Greenpeace der digitalen Welt“ bezeichnet, startet eigene Projekte (aktuell zur Scoring-Prüfung: OpenSchufa), liefert Fallstudien und gibt Arbeitspapiere heraus. https://algorithmwatch.org