Artikel von Svenja Sempach

Über KI, Klimadaten und Kontrolle

Ein Interview mit Julian Schmidli und abschliessende Gedanken zu meiner Bachelorarbeit

Foto: Svenja Sempach

Generative Künstliche Intelligenz ist eine Art von KI, die darauf ausgelegt ist, neue Inhalte wie Texte, Bilder, Musik oder Videos zu erzeugen, indem sie Muster und Strukturen aus bestehenden Daten lernt und kreativ kombiniert. Sie findet im Journalismus eine Bandbreite an Anwendungsfeldern. Manche Felder sind klar definiert, andere noch schüchtern angewendet oder befinden sich inmitten einer Testphase. Das habe ich während der Recherche zu meiner Bachelorarbeit zu KI im Regionaljournalismus bemerkt. Auch für künftige Entwicklungen durch KI in regionalen Redaktionen gab es noch keine klare Vorstellungen und greifbare Ziele. Eine Einordnung der KI-Anwendungsfelder gab mir eine Studie der London School, die 2023 in ihrer Umfrage 71 Nachrichten- und Medienorganisationen aus 32 verschiedenen Ländern zum Thema KI und damit verbundene Technologien befragt hat. Dabei wurde in die Felder «Nachrichtenerfassung», «Nachrichtenproduktion» und «Nachrichtendistribution» unterteilt.

Überrascht hat mich dabei, dass ein Grossteil der Befragten, ungefähr 90 Prozent, KI in der Nachrichtenproduktion einsetzt. Angewendet werden KI-Tools dabei beispielsweise in der Faktenprüfung, beim Korrekturlesen, bei der Trendanalyse, beim Schreiben von Zusammenfassungen und von Code, bzw. beim Programmieren. Zudem wird als weiterer relevanter Punkt die Texteditierung genannt. Durch Tools wie beispielsweise ChatGPT können Medienschaffende auch eigene Texte einspeisen und sich Umformulierungen oder Verbesserungsvorschläge generieren lassen.

Als ich bei drei Regional-Medienunternehmen im Raum Bern nachgefragt habe, wie sie KI anwenden, zeichnete sich bei allen Befragten deutlich ein Einsatzgebiet ab: Die Anwendung von KI beim Transkribieren von (Interview-)Gesprächen oder beim Übersetzen von Texten. Auf meine Frage nach dem richtigen Umgang mit den künstlich intelligenten Möglichkeiten, antworteten die Befragten teils mit einem Verweis auf die Richtlinien des Presserats zu KI, die im vergangenen Frühling erschienen sind. Wenn weiterführende Möglichkeiten für Inspiration während des Recherchierens oder teils gar bei automatisch generierten Teasern aufgezählt wurden, so wurde gleich auch die unabdingbare menschliche Kontrolle angehängt, die vor Veröffentlichung von Inhalten zwingend notwendig ist. 

Foto: Svenja Sempach

Mich interessierte, wie der Umgang mit KI beim Schweizer Radio Fernsehen SRF aussieht. Das SRF hat bereits eigene Richtlinien zum Umgang mit KI aufgestellt. Julian Schmidli, Datenjournalist bei SRF, hat bei der Verfassung dieser mitgearbeitet und sich Zeit genommen, mir ein paar Fragen zur derzeitigen Anwendung von KI, zur Rolle des Klimathemas und zukünftigen Entwicklungen zu beantworten. Er arbeitet als investigativer Reporter und ist Teil des SRF Data Teams. Julian Schmidli kennt sich mit Daten aus und ist Experte darin, aus einer Datenmenge journalistisch interessante Formate zu entwickeln. Das englische Wort dafür: «Datadriven Journalism».

Julian Schmidli, was bedeutet Datadriven Journalism?
Dass man auf Basis von Daten journalistische Produkte entwickelt oder journalistische Geschichten schreibt. Das können Analysen sein oder Recherchen, aber auch Tools, Rechner, Karten usw. 

«Datadriven» heisst dabei, dass man von einer Datensituation ausgeht und diese versucht aufzubauen. Im Gegensatz zu anderen journalistischen Methoden, wo man eher einen Einzelfall beleuchtet, geht es bei uns darum, ein Gesamtphänomen abzubilden und eben von Daten auszugehen.

Woher kommen die Daten?
Manchmal arbeiten wir mit Daten von Behörden, die schon veröffentlicht sind, also Open Data, und manchmal arbeiten wir auch mit Scraping-Methoden. Das heisst, wir sammeln Daten in jeglicher Form zusammen, die zwar öffentlich sind, aber nur als Datensammlung und noch nicht als Datenauswertung verfügbar sind. Diese Auswertung machen wir und erstellen Grafiken sowie journalistische Inhalte dazu. Die Datenquellen können jegliche Form von Daten sein.

Welche Rolle spielt das Klimathema bei euch im Data-Team?
Also ich kann nur für SRF Data reden, für unsere Redaktion und für uns ist das Klima eine wichtiges Thema. Es gibt sehr viele Daten in dem Bereich und es gibt sehr viele interessante Ansätze. Wir fragen uns jeweils, wo dazu journalistische Produkte entstehen können. 

Ein Beispiel ist der Klimamonitor. Dort ist das Ziel, Zusammenhänge zwischen den aktuellen Wetterverhältnissen und klimatischen Phänomen zu zeigen. Dabei zeigen wir von jeder Gemeinde zum Beispiel an, wie warm es gerade ist und bringen das in ein Verhältnis. Das kann man beispielsweise durch den Vergleich mit einem vergangenen Wert oder mit einer Referenzperiode, also auch mit einem Zeitraum, machen. So zeigen wir beispielsweise: In den letzten 30 Jahren ist es durchschnittlich so warm gewesen und jetzt sind es 2 Grad wärmer. Dabei zeigen wir auch auf, wie das mit dem Klimawandel zusammenhängen kann.

Dabei versuchen wir immer, komplexere Phänomene herunterzubrechen und verständlich zu visualisieren. Ein gutes Beispiel dafür ist, dass man beim Klimamonitor für jeden Tag sehen kann, wie viel Gletscherwasser in Badewannen pro Tag und pro Sekunde abfliessen. Je nachdem, wie warm es gerade im Alpenraum ist. Diese Daten werden täglich aktualisiert und die Formel dazu haben wir zusammen mit Wissenschaftlern entwickelt.

Ein anderes Beispiel, welches wir letztes Jahr ausgearbeitet haben, ist eine Analyse zu Hitzeinseln in der Schweiz und wie dies mit dem Wohlstand der Menschen in den Wohngegenden zusammenhängt. Wir wollten herausfinden, wer am meisten betroffen ist und es hat sich gezeigt, dass Stadtteile mit ärmeren Verhältnissen tendenziell stärker von Hitzeinseln betroffen sind. 
Zudem machen wir auch ganze Recherchen zum Thema, welche sich auf eine Datenbasis stützen. So haben wir letztens auch eine grosse Recherche im Bereich freiwillige Klimakompensation gemacht und dabei gezeigt, welchen Nutzen diese tatsächlich hat und wo das Geld hinfliesst.

Wie setzt ihr generative KI im SRF-Data-Team ein?
Generative KI nutzen wir eigentlich selten, bis auf einen Bereich, wo generative KI täglich angewendet wird und dieser betrifft den Bereich des Programmierens. 

Es gibt sehr gute Modelle, welche einem helfen zu programmieren. Die Generative KI schreibt auf Anfragen (sogenannte Prompts) Vorschläge von Code und Script und kann oftmals auch Fehler in bereits bestehenden Code aufzeigen, sogenanntes Debugging, und Lösungen vorschlagen, um ein Problem im Code zu beheben. 

Was wir natürlich auch brauchen, sind KI-Tools für die Transkription und Übersetzung. Dort haben wir ein eigenes SRF-internes Tool, welches auch Schweizerdeutsch transkribieren kann. Das nutzen wir natürlich auch sehr oft, wenn wir Interviews gemacht haben, die wir schnell transkribieren wollen. 

Zudem experimentieren wir auch mit LLM, sogenannten Large Language Models, aber wir haben bis jetzt keine bahnbrechende Resultate gehabt, wo man sagen müsste, dass sich unser Workflow nun komplett verändern würde. Die Arbeit ist mehrheitlich durch Personen gestützt und es ist auch wichtig, dass jeder Schritt kontrolliert ist und stimmt. Dieses Vertrauen kann man nicht nur einem Computer überlassen.

Wie schätzt du den Nutzen, aber auch das Risiko von KI bei der journalistischen Arbeit ein?
Wenn man in einer Form versucht, Daten zu sammeln, finde ich KI-Tools interessant und hilfreich und eben auch in der Programmierung. Dort brauchen wir schon seit etwa acht Jahren KI-Tools. Die Anwendung dreht sich dabei aber nicht um die Deutung von Daten, sondern um einfachere Aufgaben, wie die Klassifizierung von Daten nach dem Random-Forest-Algorithmus oder die Datenbereinigung.

Wenn es dann aber wirklich um die Produktion von Medieninhalten geht, um den journalistischen Kern sozusagen, sehe ich nur beschränkten Nutzen und eher Zusatzaufwand. Die Gefahr der Halluzination, also nach falschen Aussagen, insbesondere durch die generative KI ist sehr gross und das wird sich auch in der nahen Zukunft nicht verändern.

Infobox: Large Language Models (LLMs) sind KI-Modelle, die auf riesigen Textdatensätzen trainiert werden, um menschenähnliche Sprache zu verstehen und zu erzeugen, indem sie komplexe Muster und Zusammenhänge in der Sprache erkennen.

Infobox: Der Random-Forest-Algorithmus ist ein Lernverfahren, das durch das Training mehrerer Entscheidungsbäume auf verschiedenen Teilmengen des Datensatzes robuste Vorhersagen trifft, indem es die Ergebnisse dieser Bäume kombiniert und dabei die Varianz reduziert und die Genauigkeit erhöht.

Foto: Svenja Sempach

Das Interview mit Julian Schmidli hat mir eine beruhigende Einordnung zu Generativer KI im Journalismus gegeben und die Ansicht verstärkt, dass KI insgesamt eher als Assistenz funktioniert und weniger eine Konkurrenz des Menschen bei der Arbeit darstellt. Ich nehme aus dem Gespräch mit: KI halluziniert zu sehr und Menschen braucht es bestimmt weiterhin in der journalistischen Arbeit. Arbeitsplätze für Menschen bleiben vermutlich so lange in der Branche bestehen, wie das Medienpublikum mehr den Journalist:innen als der Künstliche Intelligenz vertraut. Das scheint derzeit klar der Fall zu sein: In der Schweizer Bevölkerung ist die Akzeptanz von durch KI erstellten Artikel momentan gering. Das Forschungszentrum Öffentlichkeit und Gesellschaft (FÖG) der Universität Zürich hat vergangenen Sommer über 1200 Personen in der Schweiz dazu befragt. Laut der repräsentativen Umfrage würden nur eine Minderheit von 29.1% der Befragten journalistische Inhalte lesen, die vollständig durch KI generiert wurden.

Menschen als Journalist:innen machen den Journalismus aus, das menschliche Hinterfragen, Kritisieren und die letzte Absegnung bevor ein Beitrag im Netz oder auf Papier erscheint, baut Vertrauen auf. So sieht es auch Nadia Kohler. Sie ist Head Product Management Content Development und verantwortet unter anderem das AI Lab zum Thema «Künstliche Intelligenz» von Tamedia. Ich habe sie für meine Bachelorarbeit interviewt und besonders geblieben ist mir folgende Aussage von ihr: «Ich denke, dass das Vertrauen und die Transparenz, und damit die Angaben der richtigen Quellen, sehr wichtig ist, um die Leute am Journalismus interessiert zu halten». Ausserdem betonte sie, dass die künftigen Entwicklungen des Journalismus, oder der Umgang mit KI von der Leser:innenschaft abhängig ist. Klingt plausibel, finde ich, besonders für die Verhältnisse in der Schweiz, in der wir als Lesende auch aktiv die Medienlandschaft mitgestalten können. Die Schweiz ist auf der Rangliste der Pressefreiheit derzeit auf Platz 9 von 180. Laut Reporter ohne Grenzen ist zwar nicht «gut», doch immerhin landet die Schweiz in der Kategorie «zufriedenstellend». 

Was wir lesen, selbst schreiben, wie wir uns informieren und wem/was wir vertrauen, gestaltet die Zukunft. Mit diesem generischen Satz finde ich einen Abschluss dieses Artikels. Man könnte fast meinen, der stamme von ChatGPT. Ist er zwar nicht, doch für Inspiration frage ich auch manchmal gerne den hilfreichen und teilweise etwas hochgestochen-formulierten Chatbot. Lassen wir uns alle bald zu stark von dessen Output inspirieren? Landen wir dann bald in einem generischen Medien-Einheitsbrei?

Ich frage mich auch, wird dieser Text ebenfalls mal als Input für das Training eines KI-Sprachmodells verwendet? Mir wäre eigentlich lieber, wenn nicht, doch wer kann das schon kontrollieren? Nun ja, so lässt sich KI vermutlich weiterhin von Menschen «inspirieren» und wir uns von KI.