Künstliche Intelligenz verändert das Internet wie wir es kannten. KI dient als Beschleuniger von immer neuen Inhalten. Nicht immer entstehen auf diese Weise sinnvolle Inhalte. AI Slop, also digitaler Müll, flutet das Netz. Und KI geht nicht mehr weg. Denn KI-Modelle, finden sich inzwischen an allen möglichen und unmöglichen Stellen des privaten und beruflichen Lebens.
Das geht Simon Berlin gehörig auf die Nerven. Der Journalist betreibt zusammen mit seinem Kollegen Martin Fehrensen seit mehr als zehn Jahren den Social Media Watchblog und beschäftigt sich unter anderem mit KI-Themen. „Ich bin allerdings kein KI-Hater“, stellt Berlin klar. „KI birgt nicht nur Gefahren, sondern ermöglicht, vereinfacht und beschleunigt bestimmte Prozesse.“
Die Gefahren dürfen seiner Ansicht nach allerdings auch nicht verschwiegen werden. Denn sonst wiederholten sich negative Entwicklungen, die aus dem Bereich Social Media bereits bekannt seien. „Big Tech schafft Fakten, ohne Grenzen zu bekommen. Es gibt keine Instanz, die Verantwortung trägt.“ Wobei es die eine verantwortliche Stelle auch gar nicht geben kann,“ meint Berlin. Politik, Wissenschaft und letztlich alle Menschen, die im Netz unterwegs sind, sind verantwortliche Akteure.
„Die Politik sollte sich die Dinge erst einmal anschauen, um zu verstehen, wo Regeln notwendig und sinnvoll sind“, und sowas benötige eben Zeit, erklärt der Netzexperte. Doch genau diese Zeitdimension verschiebt sich gerade durch KI. Alle paar Monate erblicken neue, leistungsfähigere KI-Modelle das Licht der Welt. Haben Fachleute einige der Gefahren im Ansatz erkannt, fehlt die Zeit, um darüber nachzudenken und zu erforschen, was gerade passiert.
Es gibt reale gesellschaftliche Gefahren durch KI-generierte Fake-Videos oder -Bilder, die beispielsweise zum Zweck der politischen Propaganda generiert werden, den Algorithmus über Social Media füttern und die Emotionen der Menschen in Wallung versetzen. KI hat bereits gezeigt, die Technologie verfügt über ausreichendes Potential, um Hass im Netz zu beschleunigen. Damit normalisiert sich in der Gesellschaft diese hyperemotionale Form der Auseinandersetzung immer mehr.
Menschliche Kreativarbeit kann zum Gütesiegel werden
Als wäre das noch nicht schlimm genug, bedroht KI ganze Berufszweige vor allem im Kreativbereich. „Wir erleben gerade, wie schamlos KI-Betreiber mit den Themen Datenschutz und Urheberrecht umgehen.“ Hier brauche es dringend Lösungen, meint Simon Berlin. Gerade im menschlichen Faktor erkennt der Journalist allerdings auch ein wenig Hoffnung. „Menschliche Kreativarbeit kann sich wegen KI zu einer Art Gütesiegel entwickeln, das halte ich durchaus für ein realistisches Zukunftsszenario“, betont Berlin. Die US-amerikanische Autorengilde klebt bereits entsprechende Sticker auf den Titel von Büchern: „Human authored“, also übersetzt, „Von Menschen verfasst“. Gleichzeitig versuchen Forschende Methoden zu entwickeln, um KI-generierte Inhalte aufzuspüren. Netzexperte Berlin hält das langfristig für keine ausreichende Lösung: „Es gibt keine verlässlichen Detektoren, um KI aufzudecken. Ob es jemals solche Verfahren geben wird, um KI-Inhalte aufzuspüren, bezweifle ich. Selbst digitale Wasserzeichen könnten bereits überlistet werden.
Europas Chancen liegen in KI-Nischen
Bleibt das Problem der Dominanz der US-Tech-Konzerne. Hier scheint Europa auf den ersten Blick keine Lösungen anbieten zu können. Doch wer genauer hinschaut, findet Beispiele wie Mistral, eine europäische KI-Modell-Alternative oder Black Forest Labs, ein KI-Bildgenerator aus dem Schwarzwald.
„Braucht es überhaupt ein europäisches Grundlagenmodell?“, fragt sich Simon Berlin und richtet seinen Blick auf die künftige Rolle europäischer Anbieter im Bereich KI. „Vielleicht können europäische KI-Unternehmen auch in Nischen wachsen und gedeihen, indem sie beispielsweise bestehende KI-Modelle verbessern“, schlägt der Netzexperte vor, um den US-Giganten etwas entgegenzusetzen.
