Der langjährige „Zeit“-Journalist Christoph Drösser erklärt in seinem Buch „Wenn die Dinge mit uns reden“, warum sich viele Menschen nach anfänglicher Befangenheit mit digitalen Sprachassistenten unterhalten; wenn auch nicht in der Öffentlichkeit. Im Interview spricht der frühere Chefredakteur des Zeitmagazins „Wissen“ über das Unwesen sogenannter Social Bots, ihren möglichen Einfluss auf Wahlen und Verschwörungstheorien sowie über „Roboterjournalismus“.
M | Herr Drösser, Sie sind 62 Jahre alt und somit alles andere als ein Eingeborener des digitalen Zeitalters. Trotzdem bekennen Sie in Ihrem Buch, dass Sie mit Siri reden, der Spracherkennungssoftware von Apple. Kamen Sie sich dabei anfangs nicht komisch vor?
Christoph Drösser | Meine Generation gehört immerhin zu den Pionieren, die das Netz von den Anfangstagen an miterlebt haben. Davon abgesehen findet es vermutlich zunächst jeder seltsam, mit einem Gerät zu sprechen. Ich mache das auch nicht, wenn ich unter Leuten bin.
Die Zahl der Nutzer, die mit Siri, Alexa und Co. kommunizieren, bewegt sich derzeit noch im niedrigen Prozentbereich. Werden sie irgendwann in der Mehrheit sein?
Es ist letztlich eine Frage der Nützlichkeit: Bringt mir das Sprach-Interface mehr, als wenn ich die Befehle manuell eingebe? Ich frage zum Beispiel „Wie wird das Wetter heute?” oder „Wie steht der Dollar?” und habe sofort die Antwort auf dem Schirm, das geht schneller als per Hand. Ich muss aber nicht auch noch die Heizung oder das Licht im Schlafzimmer per Stimme steuern.
Verwenden Sie einen „Smart Speaker“, der dauerhaft mit dem Internet verbunden ist? Jeder totalitäre Staat träumt doch von einer derartigen Überwachungstechnologie, die sich die Menschen ganz freiwillig anschaffen.
Aus genau diesem Grund habe ich keinen „Smart Speaker“: weil ich vermeiden will, von Amazon oder Google belauscht zu werden. Aber zunächst mal zur Beruhigung: Im normalen Betrieb sind die Geräte zwar lokal auf Empfang, aber sie beginnen erst die Daten übers Netz zu übertragen, wenn man das „Weckwort” gesagt hat, also zum Beispiel „Alexa”. Dann jedoch hören tatsächlich am anderen Ende oft nicht nur Computer, sondern auch Menschen mit, weil die Firmen die Spracherkennung immer weiter verbessern wollen. Natürlich ist es schon vorgekommen, dass die Maschine fälschlicherweise das Weckwort verstanden und dann ein Gespräch im Schlafzimmer übertragen hat.
Sogenannte Social Bots treiben schon jetzt ein erhebliches Unwesen in digitalen Netzwerken; allein bei Twitter, schreiben Sie, seien 10 Prozent der vermeintlichen Nutzer in Wirklichkeit Computerprogramme. Welche Funktion haben die?
Solche Bots lassen sich für mehrere Zwecke einsetzen: Man kann sich selber Follower verschaffen und so sein Standing auf Twitter aufwerten; man kann massenhaft gezielte Werbung verbreiten; man kann Andere mit einer Schmutzkampagne diffamieren oder einfach nur Chaos in politischen Diskussionen stiften und die Spaltung der Gesellschaft verstärken.
Lauern da nicht enorme Gefahren, weil solche Bots möglicherweise erheblichen Einfluss auf zukünftige Wahlen haben, wie die Erfahrungen mit dem Brexit-Referendum und dem US-Wahlkampf 2016 gezeigt haben?
Bei diesen Wahlen waren ja auch viele Menschen aktiv, die für politische Propaganda angeheuert und bezahlt wurden. Bots fungierten hauptsächlich als Multiplikatoren. Das Problem ist, dass sie nie eindeutig zu identifizieren sind, es gibt nur Indizien, etwa wenn sie 24 Stunden am Tag Nachrichten verbreiten.
Welche Rolle spielen Bots bei Verschwörungstheorien, gerade jetzt während der Corona-Pandemie?
Auch hier würde ich sagen: Im Moment sind es noch die Menschen, die solche Theorien verbreiten, manchmal mit Bot-Hilfe. In Zukunft ist es aber durchaus vorstellbar, dass „intelligente” Bots Nachrichten zu einem beliebigen Thema mit einer beliebigen Tendenz frei erfinden. Die Technik dazu existiert bereits. Da stellt sich eher die Frage: Will ich eine bestimmte Botschaft möglichst gezielt viral verbreiten oder möchte ich ein allgemeines Klima schaffen, in dem man keiner Nachricht mehr trauen kann?
Tun Betreiber wie Facebook und Twitter genug gegen diese Gefahr?
Sie haben definitiv in der Vergangenheit zu wenig getan und sich immer hinter dem amerikanischen Paragrafen verschanzt, nach dem solche Plattformen nicht für die Inhalte verantwortlich sind, die auf ihren Seiten gepostet werden. Im US-Wahlkampf haben sie versucht, zumindest bei wichtigen Themen wie der Pandemie oder der Kampagne gegen den Sohn des demokratischen Präsidentschaftskandidaten Joe Biden fragwürdige Inhalte mit Warnungen zu versehen oder ganz zu sperren. Sie wandeln dabei auf einem schmalen Grat zwischen Laissez-faire und Zensur; zu beneiden sind sie da nicht. Inzwischen rufen in den USA Vertreter beider Parteien nach einer schärferen Regulierung der sozialen Plattformen.
Die Website „übermedien“ hat voriges Jahr über einen Sportartikel berichtet, den ein Computerprogramm verfasst hat. Der Text war völlig falsch, weil die Basisdaten nicht korrekt waren. Wie viele solcher künstlich erstellter Berichte gibt es wohl? Und sollten sie nicht gekennzeichnet werden?
Diesen „Roboterjournalismus” gibt es bei der Sportberichterstattung aus den unteren Ligen, beim Wetterbericht und bei Bilanzpressekonferenzen – überall da, wo es darum geht, trockene Zahlen in standardisierte Prosa umzusetzen. Das Beispiel, das Sie zitieren, stammt aus der Welt, da hatte man dem Computer nicht gesagt, dass ein Spiel in der 11. Minute abgebrochen wurde, und er reimte sich eine lange torlose Begegnung zusammen. Ich bin sehr dafür, dass die Medien solche computergenerierten Inhalte kennzeichnen. In den USA ist das bereits üblich.
Wird diese Entwicklung Folgen für die Zukunft des Journalismus haben? Sie verweisen auf die Washington Post, deren Redaktion die Erstellung von rein faktenbasierten Texten offenbar schon jetzt dem Computer überlässt.
Ich frage mich ohnehin, warum ich einen ganzseitigen Text lesen soll, der doch nur die knappen Fakten eines Fußballspiels zusammenfasst und dann – aufgrund der Historie der beiden Mannschaften – schreibt, dass Team A „überraschend” Team B besiegt hat. Aber offenbar werden solche Artikel von vielen Menschen gelesen. Wir müssen hier keine Krokodils-Tränen darüber vergießen, dass uns die Algorithmen die Arbeitsplätze wegnehmen. Die Kolleginnen und Kollegen bei der Washington Post jedenfalls sind ganz froh, dass der Computer ihnen solche Routineartikel abnimmt und sie dafür die interessanteren Geschichten recherchieren können.
Werden die Maschinen, wie die Kinoreihe „Terminator“ prognostiziert, irgendwann die Herrschaft übernehmen?
Ach, das ist Science Fiction und wird noch eine Weile Science Fiction bleiben. Stattdessen sollten wir uns Gedanken darüber machen, was wir Menschen mit der Künstlichen Intelligenz anstellen: Wollen wir überall Überwachungskameras, die unsere Gesichter identifizieren? Sollen Algorithmen entscheiden, ob wir einen Kredit bekommen oder nicht? Wollen wir ihnen vielleicht sogar wichtige Entscheidungen in Wirtschaft und Politik überlassen? Da gibt es eine Menge Diskussionsbedarf.
Die Fragen stellte Tilmann P. Gangloff
Christoph Drösser (62) lebt als freier Journalist in San Francisco und arbeitet von dort für deutsche Medien. Vorher war er viele Jahre Redakteur der „Zeit” im Ressort Wissen. Er hat etwa zwanzig Sachbücher für Erwachsene und Kinder verfasst. In seinem jüngsten Werk, „Wenn die Dinge mit uns reden“ (Dudenverlag, 160 Seiten, 16 Euro), schreibt er über Chancen und Gefahren der intelligenten Sprachsysteme.