Recherchieren mit Maschinen

#krassmedial: Journalist Peter-Welchering vermittelte seine Expertise über das Recherchieren mit KI Foto: Charles Yunck

Nie mehr Angst vor dem leeren Blatt. Wie KI-Tools die journalistische Recherche und Themenfindung unterstützen können, stellte der Journalist Peter Welchering in seinem Workshop „KI recherchier das mal!“ vor. Auch die Funktionsweise von neuronalen Netzen und Fragen nach der Kontrolle von KI-Tools und deren Integration kamen zur Sprache.

Zum Einstieg in seinen Workshop griff Welchering ein prominentes Beispiel für mangelnde Recherche und die Nutzung eines eher schlechten Übersetzungstools auf. Der US-Journalist Seymour Hersh berichtete über die mutmaßliche Urheberschaft der im September 2022 erfolgten Explosionen an den Gaspipelines Nord Stream 1 und 2. Ein Faktenfinder der Tagesschau warf ihm in dem Beitrag vom Februar 2023 Unstimmigkeiten vor. Der Vorwurf beruhte jedoch auf einem einfachen Übersetzungsfehler. Offenbar war ein unausgereiftes Übersetzungstool benutzt worden, das das englische Verb plant („platzieren“) in der deutschen Übersetzung fälschlicherweise als Nomen („Pflanze“) interpretierte und so zu unsinnigen Spekulationen über „pflanzenförmigen“ Sprengstoff führte. In diesem Fall hätte also ein Blick in den englischen Originaltext genügt. Welcherings simpler Tipp: „Einfach den Link anklicken, der als Quelle genannt wird“. Denn oft liege der Fehler gar nicht bei der KI, sondern beim anwendenden Menschen.

Das Beispiel zeigte jedoch auch, dass man sich lieber auf ausgereiftere Übersetzungstools verlassen sollte als etwa auf Google Translate. Es arbeitet zwar bereits mit neuronalen Netzen, Tools wie DeepL erzielen aber bessere Ergebnisse mit dem Einsatz sogenannter Transformer. Dabei werden bestimmte Werte im neuronalen Netz verstärkt, nur was gewichtet wird, wird dann auch weiterverarbeitet. Dank Domänenwissens können Worte passender vervollständigt und bessere Ergebnisse geliefert werden. Weitere Beispiele für Übersetzungstools sind trint, promt.one, Microsoft Translator oder Yandex. Letzteres liefere zwar gute Ergebnisse, das Unternehmen hat seinen Hauptsitz allerdings in Moskau. Man müsse sich darauf einstellen, dass bestimmte Begriffe regierungskonform übersetzt werden. Aus dem Wort für „Krieg“ wird dann etwa „Spezialoperation“, wenn es um den derzeitigen Krieg in der Ukraine geht.

Für die Reverse bzw. Rückwärtsbildersuche könne man unter anderem die Tools TinEye, Google, Yandex und RootAbout nutzen. Letzteres empfehle sich vor allem für die Suche in sozialen Netzwerken. Bilder zu Recherchezwecken verändern, aber auch neue erstellen lassen sich zum Beispiel mit Artbreeder.

Generell gibt es für die Recherche zahlreiche bessere Suchmaschinen als Google. Die 2009 lancierte semantische Suchmaschine WolframAlpha kann Fragen beantworten. Ihre Datenbasis bezieht sie von akademischen und kommerziellen Webseiten. Die Wissenschaftssuchmaschine Consensus ist evidenzbasiert und kann auch im Journalismus genutzt werden. Die Quellen sind von Menschen überprüft. Mit Quellenreferenzierung in verschiedenen Wissensdomänen arbeitet auch IntelligenceX, eine Suchmaschine und ein Datenarchiv, das nur Fakten aus der eigenen Datenbank nutzt und selbst von IT-Forensiker*innen verwendet wird. Perplexity ist ein Chatbot mit Quellenreferenzierung. Mit Vorsicht zu genießen sei hingegen die Microsoft-Suchmaschine Bing, die einen Vertrag mit Open AI hat. Man versuche sich dort in Quellenreferenzierung, Quellen würden aber nicht überprüft. Bei anderen bekannten Chatbots wie Googles Bard und ChatGPT von Open AI fehle die Quellenreferenzierung noch.

SciSpace von Typeset kann wissenschaftliche PDFs durchsuchen und sogar Fachbegriffe erläutern. AskYourPDF kann ebenfalls für die Suche in PDFs genutzt werden. Mit Pinpoint lassen sich zudem Audio-Dateien durchsuchen, allerdings gehen die Daten an Google. Automated Insights ist sogar für die Suche im Archiv auf der eigenen Festplatte einsetzbar, Narrativa und United Robots ebenso; letzteres dient auch der Texterstellung. Syllabs wiederum kann Zusammenfassungen aus Studien erstellen, sei Welchering zufolge aber nicht immer vertrauenswürdig.

Um zu wissen, welche Themen gerade hohe Relevanz haben, könne man zum Beispiel Dataminr nutzen, allerdings sei die ausgegebene Gewichtung nicht immer nachvollziehbar. So reiche es etwa, wenn nur wenige Personen ausgiebig über ein Thema chatten. Mit Glasp lassen sich Texte auf Webseiten markieren und Clustern zuordnen.  Bewusst sollte man sich dessen sein, wie diese Tools funktionieren. Sprache etwa wird in Zahlen umgewandelt, jedes Wort bekommt im semantischen Raum eine bestimmte Stelle zugewiesen, die schließlich durch einen Vektor abgebildet wird. Je nach Aufmerksamkeit können Vektoren einen höheren Wert erhalten. Wichtige Fragen sind, mit welchen Daten die KI-Programme trainiert werden, auf welche Archive sie zurückgreifen dürfen, wer die Bedeutung einzelner Worte bzw. Daten festlegt und wie bestimmte Entscheidungspfade durch Verstärkung festgelegt werden. Welchering wies zudem darauf hin, dass ein Problem darstelle, wie die KI-Tools jeweils in Schnittstellen integriert werden sollen, welche Datenformate standardisiert werden und welche nicht. Da bedürfe es einer Regulierung.

Abschließend warf Welchering die Frage auf, ob Tutor-Chatbots, die derzeit an Universitäten entwickelt werden, auch als Geschäftsmodell für den Fachjournalismus dienen könnten.

Hier ein „Werkzeugkasten“ mit allen in diesem Fokus genannten Tools und deren Links.

 

 

nach oben

Weitere aktuelle Beiträge

Preis für behinderte Medienschaffende

Zum zweiten Mal schreibt in diesem Jahr die gewerkschaftsnahe Otto Brenner Stiftung zwei Preise und Stipendien für Journalist*innen mit Behinderung aus. Damit soll „ein klares Signal für die Förderung von Diversität als unverzichtbaren Wert in unserer demokratischen Gesellschaft“ gesetzt werden, sagt Jupp Legrand, Geschäftsführer der Stiftung. 
mehr »

KI darf keine KI-Texte nutzen

Die Diskussion über Möglichkeiten und Grenzen der KI im eigenen Metier wird Journalist*innen noch lange weiter beschäftigen. Bei der jüngsten ver.di-KI-Online-Veranstaltung ging es um den Anspruch an Gute Arbeit und Qualität. ver.di hat zum Einsatz von KI Positionen und ethische Leitlinien entwickelt. Bettina Hesse, Referentin für Medienpolitik, stellte das Papier vor, das die Bundesfachgruppe Medien, Journalismus und Film zum Einsatz von generativer Künstlicher Intelligenz im Journalismus erarbeitet hat.
mehr »

Unabhängige Medien in Gefahr

Beim ver.di-Medientag Sachsen, Sachsen-Anhalt und Thüringen diskutierten am 20. April rund 50 Teilnehmende im Zeitgeschichtlichen Forum in Leipzig die aktuelle Entwicklungen in der Medienlandschaft, die Diversität in den Medien und Angriffe auf Medienschaffende. Das alles auch vor dem Hintergrund, dass bei den kommenden Landtagswahlen in Thüringen, Sachsen und Brandenburg die AfD laut Umfragen stark profitiert. 
mehr »

Wie prekär ist der Journalismus?

„Daten statt Anekdoten“, das war das Ziel des Forschungsprojekts „Prekarisierung im Journalismus“ an der LMU München, das nun nach fast fünf Jahren mit einem internationalen Symposium in München endete. Zu den Daten aus Europa hatte auch die dju in ver.di ihren Beitrag geleistet, als sie ihre Mitglieder um Teilnahme an der Online-Befragung bat und in M über die Ergebnisse berichtete.
mehr »