Alarmismus ist fehl am Platz

Matthias Spielkamp ist Gründer und Geschäftsführer von AlgorithmWatch
Foto: Manuel Kinzer

Matthias Spielkamp: Künstliche Intelligenz übernimmt keine Verantwortung

Algorithmen sind menschengemacht. Ihre Anwendung ist interessengeleitet, folgt Zielen, hat Wirkungen und Nebenwirkungen. Braucht es demnächst „Beipackzettel“, die über gesellschaftliche relevante Algorithmenanwendung aufklären? Wie kann in solchen Prozessen Transparenz geschaffen und Kontrolle gesichert werden? Fragen an Matthias Spielkamp von AlgorithmWatch.

M | Birgt die momentane Entwicklung in Sachen künstlicher Intelligenz mehr Risiken oder mehr Chancen?

Matthias Spielkamp | Wir haben keine Kriterien dafür zu bestimmen, welches Ergebnis wir uns wünschen, daher ist die Frage nicht zu beantworten. Man kann das mit der Entwicklung des Autos vergleichen: Es hat uns ungekannte Freiheiten verschafft und einen enormen Anteil an unserem gesellschaftlichen Wohlstand. Zugleich hat es zu Millionen Verkehrs­toten weltweit und globaler Umweltzerstörung geführt. Wenn man also vor 100 Jahren gefragt hätte, ob die Entwicklung des Automobils mehr Risiken oder mehr Chancen bietet, dann können wir uns nicht einmal in der Rückschau darauf einigen, welche Antwort die richtige gewesen wäre.

Algorithmen werden im gesellschaftlichen Diskurs gerade fast wie gesellschaftliche Akteure behandelt, deren Macht zu fürchten ist. Liegt da ein Missverständnis vor? Oder gar Irreführung?

In jedem Fall ein Missverständnis, das aufgeklärt werden muss, denn es kann weitreichende negative Auswirkungen haben. Maschinen können keine Entscheidungen in einem starken, menschlichen Sinn treffen. Sie haben keinen eigenen, freien Willen, sie handeln nicht autonom auf der Grundlage von Absichten. Daher sind auch Begriffe wie „autonome Autos“ irreführend. Auf diese Art über Automatisierungsprozesse zu sprechen birgt das Risiko, dass wir Maschinen zu Subjekten erklären, die Verantwortung für ihr Handeln übernehmen können. Das würde aber bedeuten, dass Menschen ihre Verantwortung auf technische Prozesse abwälzen können.

Algorithmus


Ein Algorithmus löst ein mathematisches Problem. Digital beschreibt er einen für den Computer korrekt interpretierbaren Lösungsweg, der für jede durch das mathematische Problem definierte mögliche Eingabe die korrekte Lösung in endlicher Zeit berechnet.

Die Struktur von Algorithmen oder Codes kann immer komplexer gestaltet werden, doch ist sie in der Regel selbst Fachleuten nicht einsichtig. Bildet das Internet zunehmend ein Meer von „Geschäftsgeheimnissen“?

Geschäftsgeheimnisse gibt es seit Jahrhunderten, sie sind nicht erst für Algorithmen und Software erfunden worden. Wir fordern, dass Prozesse, die Entscheidungen zum Teil automatisieren und die eine Auswirkung auf individuelle Rechte oder das Gemeinwohl haben, sehr gut erklärt werden müssen. Aber es hängt vom Kontext ab, wem und wie sie erklärt werden. So kann es zum Beispiel ausreichen, Prozesse für den Hochgeschwindigkeitshandel von Aktien, die algorithmisch gesteuert werden, der Finanzaufsicht gegenüber zu erklären. Normale Bürger_innen wären damit überfordert. Ihnen die Verantwortung dafür zu übertragen, diese Prozesse zu verstehen und auf der Grundlage eine Wahl zu treffen, wäre unsinnig und würde das Gegenteil von dem bewirken, was man erreichen will. Wenn es aber um Bonitätsprüfungen geht, sind wir sehr wohl der Ansicht, dass es dem Einzelnen viel besser als bisher erklärt werden muss, wie die Scores zustande kommen, die darüber entscheiden, ob jemand einen Baukredit erhält oder einen Mobilfunkvertrag. Es hängt also von der Anwendung ab, über die wir sprechen.

Und wie konkret kann eine Kontrolle gesichert werden? Welche Akteure sind, auch für einen möglichen Algorithmen-TÜV, gefragt?

Die Metapher eines Algorithmen-TÜVs ist aus zwei Gründen ungeeignet. Zum einen wird darunter häufig eine Vorab-Prüfung von Prozessen verstanden. Das ist aber nur in ausgewählten Fällen notwendig und wünschenswert – etwa, wenn es um medizinische Diagnose oder Behandlung geht. In vielen Fällen müssen wir akzeptieren, dass zu einer freiheitlichen Gesellschaft gehört, dass man nicht jede Entwicklung vorher auf mögliche Risiken prüfen muss, sondern dann haftet, wenn etwas schiefgeht. Da, wo Vorab-Prüfungen notwendig und gerechtfertigt sind, müssen sie von den Institutionen übernommen werden, die dafür geeignet sind: Die Bundesanstalt für Finanzdienstleistungsaufsicht, das Bundesinstitut für Arzneimittel und Medizinprodukte, das Kraftfahrt-Bundesamt oder andere.

Und ist alles, was technisch machbar ist, zulässig? Wer ist verantwortlich, wenn ein System unvorhergesehene oder schädliche Auswirkungen hat? Müssen wir uns bei Pannen auch künftig mit dem Sorry! eines Mr. Zuckerberg zufriedengeben?

In einem Rechtsstaat ist niemals alles zulässig, was technisch machbar ist. Aber auch hier kann nur mit Blick auf den konkreten Fall entschieden werden, was zulässig ist. So gibt es etwa schon lange eine Diskus­sion darüber, ob große Stadt-Geländewagen erlaubt sein sollen, da sie ein besonderes Risiko für andere Verkehrsteilnehmer darstellen. Aber so lange es keinen gesellschaftlichen Konsens gibt, sie zu verbieten, der sich in einem Gesetz niederschlägt, bleiben sie erlaubt und wir müssen mit den Folgen leben. So lange wir keinen Gesetzesverstoß nachweisen können, aber ein bestimmtes Verhalten dennoch für falsch halten, müssen wir andere Mittel nutzen, um Akteure dazu zu zwingen, mehr zu tun, als um Entschuldigung zu bitten – etwa öffentlichen Druck.

Die Personalisierung von Daten war ein technischer Entwicklungserfolg. Die Befürchtung, dass dadurch auch Filterblasen gebildet werden, ist vor allem mit Blick auf Facebook nicht ausgeräumt. Wie kann man dem Problem beikommen?

Filterblasen gehören zum menschlichen Leben. Wer eine bestimmte Tageszeitung liest, lebt in einer Filterblase. Es gibt keine belastbaren empirischen Belege dafür, dass das Internet im Allgemeinen oder Facebook im Besonderen dazu beigetragen haben, dass Menschen Informationen aus weniger Quellen bekommen als vorher und daraus problematische Verhaltensänderungen folgen.

Algorithmen zur Bestimmung von Relevanz und generell solche, die der Meinungsbildung dienen, wirken zunehmend „global“. Während im seriösen Journalismus zwischen Werbung und redaktionellem Text klar unterschieden wird, zielen algorithmische Systeme womöglich auf die Wählerin, den Konsumenten oder deren gesamtes Weltbild gleichermaßen. Erreicht Manipulation eine neue Ausprägung?

Nein. Die öffentliche Meinung in Deutschland wird durch die Lügenkampagnen der Bild-Zeitung mit großer Sicherheit noch immer wesentlich stärker beeinflusst als durch personalisierte Informationen bei Facebook. Das bedeutet nicht, dass wir nicht ganz genau prüfen sollten, welche Auswirkungen Informa­tionsplattformen für den öffentlichen Diskurs haben. Aber Alarmismus ist fehl am Platz.

Doch braucht es nicht generell neue Regeln? Und wer sollte die aufstellen?

Es braucht zum Beispiel neue Regeln dafür, wie große Informationsplattformen wie Facebook und Google Inhalte kontrollieren – sowohl solche der klassischen Medienanbieter, als auch die der Nutzer. Es muss sowohl schnellere Reaktionen gegen rechtswidrige Inhalte geben als auch bessere Widerspruchsmöglichkeiten und Abhilfe für Nutzer, deren Beiträge ungerechtfertigt gelöscht werden. Zugleich sollten keine technologischen Verfahren genutzt werden, um Inhalte vor der Veröffentlichung zu filtern. Hier ist der Gesetzgeber gefragt, sowohl auf nationaler als auch auf EU-Ebene. Das gilt aber eben auch in dem Sinne, dass er bestimmte Anforderungen nicht stellt oder sogar Methoden verbietet, um die Meinungsfreiheit zu schützen. An diesem Prozess sollten aber alle so genannten Stakeholder beteiligt sein, also auch die Zivilgesellschaft, Unternehmen, Wissenschaft und technische Community. International ist das Internet Governance Forum der Ort, an dem diese Fragen verhandelt werden.

AlgorithmWatch hat auch ein Projekt aufgelegt, das sich mit der automatischen Leistungskontrolle von Arbeitnehmer_innen befasst. Worum geht es genau?

Unternehmen setzen zunehmend auf Systeme zur algorithmisch gesteuerten, automatisierten Entscheidungsfindung oder -vorbereitung im Personalmanagement. Wir wollen herausfinden, welche Funktionen sie den Anwendern – also den Unternehmen – und den Betroffenen – also den Beschäftigten – bieten, welche Informationen die Arbeitnehmer_innen über den Einsatz der Systeme haben und welches Mitspracherecht bei ihrem Einsatz besteht.

AlgorithmWatch


AlgorithmWatch wurde 2015 gegründet und arbeitet heute als gemeinnützige GmbH mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung (Algorithmic Decision Making ADM) zu analysieren und gesellschaftlich einzuordnen. Die Organisation, in der Presse bereits als „Greenpeace der digitalen Welt“ bezeichnet, startet eigene Projekte (aktuell zur Scoring-Prüfung: OpenSchufa), liefert Fallstudien und gibt Arbeitspapiere heraus. https://algorithmwatch.org

 

 

 

 

 

nach oben

Weitere aktuelle Beiträge

Über Rechtsextreme reden – aber wie?

Medien können eine schützende Rolle dabei spielen, rechtsextremen Tendenzen entgegenzuwirken und die Demokratie zu stärken. Handlungsempfehlungen dafür haben Pia Lamberty und Maheba Goedeke Tort im CeMAS-Policy-Brief „Über Rechtsextreme reden? Empfehlungen für die mediale Berichterstattung“ zusammengestellt. Das geschieht vor dem Hintergrund, dass sich auf der einen Seite rechtsextreme Parteien radikalisieren. Gleichzeitig finde eine gesellschaftliche Normalisierung rechtsextremer Positionen und Erzählungen statt. 
mehr »

Feminismus trifft Klassenkampf im Film

Das Internationale Frauenfilmfest (IFFF) wirft einen sehr außergewöhnlichen Blick auf die Arbeitswelt von Frauen im Film. Damit kommt es beim Publikum gut an und liegt voll im Trend. Denn es geht um Frauensolidarität, Antirassismus, Antisexismus und Klassenkampf. Bei der 41. Ausgabe des Festivals vom 16. bis 21. April in Köln gab es volle Kinosäle. Der Schwerpunkt der von Frauen produzierten Filme aus aller Welt lag in diesem Jahr auf dem Horrorgenre.
mehr »

Klimakiller in der TV-Werbung

Knapp ein Drittel aller Spots in TV und auf YouTube wirbt für klimaschädliche Produkte. Das verstößt gegen den Medienstaatsvertrag, wie die am 6. Mai veröffentlichte Studie „Reklame für Klimakiller“ der Otto Brenner Stiftung offenlegt. Denn der Medienstaatsvertrag untersagt explizit Werbung für „in hohem Maße“ umweltschädliches Verhalten. Die Autoren fordern von der Medienpolitik eine strengere Regulierung klimaschädlicher Werbung.
mehr »

ARD und ZDF: Offene technische Plattform 

ARD und ZDF stellen sich mit einer Open-Source-Initiative und einer gemeinsamen Tochterfirma für den Betrieb ihrer Mediatheken als Streaming-Anbieter auf dem deutschen Markt neu auf. Beide wollen künftig zentrale Komponenten arbeitsteilig entwickeln und gemeinsam nutze, teilten sie gemeinsam mit. Zugleich sollen wichtige Bausteine als Open Source anderen Dienstleistern offen stehen. Das gelte unter anderem für den Player, das Empfehlungs- und das Designsystem.
mehr »