Die KI-Revolution: Darauf müssen Redaktionen aufpassen

Man muss nicht von Technik besoffen sein, um sich all die Potenziale auszumalen, die in der Entwicklung von Bots wie ChatGPT stecken – auch für den Journalismus. Der in dieser Woche erschienene Trend-Report des Reuters Institutes for the Study of Journalism erwartet gar ein „Jahr des Durchbruchs“ für den Einsatz Künstlicher Intelligenz in Redaktionen. Schon länger setzen viele von ihnen KI ein, vor allem für Leseempfehlungen, aber auch für automatisierte Textproduktion. Nun könnte der „Roboterjournalismus“ aber ein neues Level erreichen. 

Der im November gelaunchte Bot von Open AI beantwortet in Windeseile Fragen und hilft sogar bei der Erstellung von Interviewfragen. Er fasst Texte zusammen oder redigiert sie, er spuckt Literaturlisten aus und komponiert sogar Cartoons. Die Möglichkeiten sind grenzenlos. Der Bot von Open AI ist das, was man auf Englisch einen Game Changer nennt. Nimmt man dazu noch die Möglichkeiten, auf Basis von Recherchen animierte Filme zu produzieren, wie das zum Beispiel die Redaktion von Semafor ausprobiert, drängt sich der Eindruck auf: Bald ist alles möglich. 

Und genau hier liegt eine riesige Herausforderung für den Journalismus. Denn schon heute fehlt es in den meisten Medienhäusern vor allem an Fokus und an Klasse, keinesfalls an Masse. Je mehr möglich ist, umso wichtiger wird es zu entscheiden, was man tut, und was man lieber lässt. Einer Branche, die ohnehin lieber mit Bauchgefühl arbeitet als mit Strategie, wird genau das besonders schwerfallen. 

Die Chancen

Unter dem Strich dürfte KI dem Journalismus deutlich mehr nützen, als dass sie ihm schadet. Das JournalismAI Project an der London School of Economics ist ein Fundus entsprechender Innovationen, inklusive Trainingsprogramm. Gerade kleine Redaktionen profitieren von KI, weil sie kleineren Teams mehr leisten können. Software wird Routinearbeiten erledigen, während Reporter tiefer recherchieren – und auch das mit Hilfe von KI. Der Faktencheck wird einfacher, hyperlokale Berichterstattung möglich, Personalisierung von Inhalten und Kundenbindung leichter zu automatisieren.

Vielfalt und Inklusivität lassen sich besser erreichen, wenn Algorithmen dies kontrollieren oder gar steuern. Bei der kanadischen Globe and Mail zum Beispiel bestückt die Software Sophi die Homepage und stellt unter anderem sicher, dass ethnische Minderheiten inhaltlich repräsentiert sind. Anderswo machen automatisierte Übersetzungen auch in seltene Sprachen Beiträge neuen Zielgruppen zugänglich. Für diejenigen, die schlecht lesen können, gibt es Text-to-speech- Software, für solche mit Gehörproblemen maschinelle Transkription. Avatare können dieselbe Nachricht je nach Zielgruppe im entsprechenden Look, Stil, und Komplexitätsgrad vermitteln. Software wie Dall-E hilft dabei, komplexe Inhalte in Bilder zu pressen. Das bedeutet auch, dass verschiedene Audiences präziser bedient werden können. Die Hoffnung besteht, mit neuen Mitteln einen größeren Teil derjenigen zu erreichen, die das Nachrichtengeschehen bislang ignoriert haben – womöglich, weil sie sich nicht angesprochen fühlten.

Die Risiken

Natürlich bestehen auch Risiken. Die Gefahr wächst, auf manipulierte Inhalte hereinzufallen, denn davon wird es reichlich geben. Journalisten werden ihre Rolle als Gatekeeper neu ausfüllen müssen. Bislang sind die Bots darauf trainiert, plausible Inhalte abzuliefern, nicht 100 Prozent Faktentreue. Fachleute sagen, die Lernkurve der KI sei steil, die Fehlerquote sinke rasant. Aber derzeit kann vermutlich niemand mit Sicherheit sagen, ob die maschinellen Möglichkeiten zu mehr Lügengeschichten oder akkuraterer Qualitätskontrolle führen werden. Und natürlich fragen sich Journalisten, wie ihre Aufgaben und Arbeitsperspektiven sich entwickeln werden in einer Welt, in der Maschinen schneller und womöglich verständlicher schreiben und produzieren, als sie das je könnten.

Die Sorgen sind berechtigt. Vor allem jene Kolleg:innen, denen es an Lust, Zeit, Ressourcen und Energie zum Lernen fehlt, könnten am Ende leer ausgehen. Viele Jobs werden sich verändern. Viele Fähigkeiten, die früher nachgefragt waren, stellt die Technik über Nacht in den Schatten. Aber der Einzug von KI in Redaktionen birgt auch Gutes für den Arbeitsmarkt. Gelten Verlagshäuser zum Beispiel heute für Tech-Talente noch als angestaubt, könnten sie zu verlockenden Arbeitgebern werden, wenn KI-Versiertheit künftig zum Job-Profil gehört. Entsprechendes Know-how macht Journalisten auch für andere Branchen attraktiv und damit leichter vermittelbar. Redaktionsarbeit dürfte interessanter werden, wenn Roboter die Routine-Jobs erledigen. 

KI werde Medienunternehmen dabei helfen, „mehr mit weniger zu erreichen und Möglichkeiten in der Produktion und Verteilung besserer Inhalte zu eröffnen“, schreibt Nic Newman im Trend-Report des Reuters Institutes, der auf einer nicht-repräsentativen Umfrage unter Top-Führungskräften in Medienhäusern weltweit beruht. „Aber sie wird auch zu neuen Dilemmata führen, wie diese machtvollen Technologien ethisch und transparent genutzt werden können“, so Newman weiter. 

Eine Frage der Ethik

Wenn sich Journalisten künftig mehr mit Ethik beschäftigen müssen, um nicht von KI überrumpelt zu werden, ist das zunächst einmal eine gute Sache. Tatsächlich ist es zwingend überall dort, wo lernende Software Menschen ersetzt, denn werden Fehler und Vorurteile maschinell skaliert, sind die Schäden potenziell immens. Genauso wichtig wird es aber sein, dass Medienhäuser und Redaktionen ihre Ziele und die dazu passende Strategie penibel entwickeln. Schon bei der digitalen Transformation haben das viele versäumt. Etliches, was nach Innovation klang, wurde gemacht, ohne vorher zu überlegen, auf welche Weise es zum Erfolg von Produkten, Marken oder Missionen beitragen könnte. Man pilgerte lieber zur New York Times, als sich mit den Bedürfnissen der potenziellen Nutzer in der Nachbarschaft zu beschäftigen. So wurde viel Geld und Energie verbrannt. Diese Fehler gilt es zu vermeiden.

Die Versuchung, immer noch mehr zu produzieren, schlicht, weil es möglich ist, könnte eines der größten Probleme des Journalismus noch verschärfen. Laut dem Trend-Report macht die wachsende Nachrichtenmüdigkeit ihres Publikums schon jetzt 71 Prozent der befragten Führungskräfte Sorgen. Dieser kann man nicht mit mehr Masse begegnen, sondern mit Angeboten, die relevant und bedürfnisgerecht sind. Ob sie mit oder ohne KI erstellt werden sollten, das müssen Menschen entscheiden. 

Diese Kolumne erschien bei Medieninsider am 11. Januar 2023

Keine Angst vor Fake News! – Warum Desinformation real ist aber Information trotzdem gewinnen wird

Zum Glück ist das Publikum nicht so dumm, wie manch ein Politiker denkt. Mehr als 50 Regierungschefs und Staatspräsidenten hätten innerhalb von fünf Jahren den Begriff „Fake News“ genutzt, um Pressefreiheit einzuschränken, hatte der Herausgeber der New York Times, A.G. Sulzberger, 2019 in einer Rede vor Studierenden gewettert. Die Medien lügen, behaupten jene Regierenden, nur: Die Bürgerinnen und Bürger glauben ihnen nicht. 40 Prozent der Befragten im Digital News Report von 2020, der weltweit größten fortlaufenden Studie zum Medienkonsum, gaben stattdessen ihre Einschätzung zu Protokoll, dass Politiker den meisten Unsinn erzählen. Nur etwa jeder zehnte denkt das über Journalisten. Zu einem ähnlichen Schluss kommt eine Studie der Misinformation Review der Harvard Kennedy School. In Europa befragte Teilnehmer nennen darin Politiker und Wirtschaftsgrößen als wichtigste Urheber von falschen Behauptungen, nicht etwa Troll-Farmen, Privatleute oder eben Medien. In Deutschland bescheinigte die Universität Mainz den Medien für das erste Corona-Jahr sogar den höchsten Vertrauenswert seit langem.

All dies offenbart: Seitdem Ex-US-Präsident Donald Trump und Konsorten „Fake News“ zum Kampfbegriff gemacht haben, enthält die Debatte darüber zuweilen mehr Sprengkraft als das Phänomen an sich. Einige Forscher warnen sogar vor „moralischer Panikmache“. Die Verbreitung falscher Behauptungen sei kein Massenphänomen. Wenige Akteure streuten viel davon, die Lügen hätten begrenzte Reichweite. Misinformation sei real, aber nicht so gefährlich für Demokratien, wie dies oft suggeriert werde, so Andreas Jungherr und Ralph Schroeder in einem Artikel für die Fachzeitschrift „Social Media + Society“.

Ein Grund zur Entwarnung ist dies nicht. Immerhin bieten die sozialen Netzwerke gewaltige Möglichkeiten, Lügen, verzerrte oder aus dem Zusammenhang gerissene Inhalte, falsche Behauptungen oder gefälschte Bild- und Ton-Dokumente zu skalieren. Außerdem reicht es, wenn sich eine kleine Minderheit um falsche Behauptungen herum radikalisiert oder ihnen folgt, wie beim Sturm auf das US-Parlament im Januar 2021 oder allerlei Anweisungen zum Umgang mit Covid 19. „Fake News“ können sehr reale und gefährliche Folgen haben. Die Angriffe auf Journalisten nehmen trotz guter Vertrauenswerte auch in Deutschland zu.

Traditionelle Medien sind allerdings nicht nur Opfer dieser Entwicklung, sie beteiligen sich auch daran. Gerne greifen sie besonders skurrile Inhalte auf und geben ihnen so Auftrieb, selbst wenn sie sie kritisieren oder richtigstellen. Eine Studie des Berkman Klein Centers für Internet und Gesellschaft in Harvard hat diesen Effekt eindrucksvoll belegt. Dabei haben Qualitätsmedien besondere Macht, denn die Algorithmen der Plattform-Konzerne priorisieren ihre Beiträge. Die richtige Balance zwischen Berichten und Weglassen zu finden, verlangt Redaktionen einiges ab.

Journalistinnen und Journalisten waren schon immer Fact Checker. Zu recherchieren, ob das, was Menschen und Institutionen mit Macht und Einfluss von sich geben, auch den Realitätstest besteht, gehört zu ihrem Handwerk wie die Suche nach der zweiten Quelle oder der Anruf bei beiden Parteien in einem Konflikt. Wittern Reporter PR oder Propaganda, machten sie sich vor Ort ein Bild, oft sprichwörtlich an der Front. Die Kamera kann ein gnadenloser Fakten-Kontrolleur sein.

Dank neuer Technik und Künstlicher Intelligenz haben viele Redaktionen beim Überprüfen ordentlich zugelegt. Nicht nur die Manipulatoren rüsten auf, auch die Kontrolleure. Medien tun das nicht nur für die eigenen Kunden. Selbst Konzerne wie Facebook oder Google sind angewiesen auf ihre Arbeit. Es gilt, Lügen so schnell wie möglich zu entlarven, um sie per Algorithmus zu dimmen, zu kennzeichnen oder bei Gefahr für Leib und Leben ganz zu sperren.       

Wissenschaftler debattiere allerdings darüber, ob Menschen ihre Annahmen ändern, wenn Lügen als solche ausgewiesen werden. Studien beobachten sogar einen „backfire effect“, bei dem Teilnehmer sich erst recht hinter ihren Positionen verschanzen, konfrontiert man sie mit gegenteiligen Aussagen. Forscher wie Brendan Nyhan widersprechen dem. Faktenchecks beeinflussten Menschen durchaus, aber der Effekt halte nicht lange, argumentiert er in einem Artikel für die US Akademie der Wissenschaften. Eine wirkungsvolle Strategie müsse deshalb bei den Eliten ansetzen, die Falschinformationen verbreiten.

Fakten zu checken war und ist eine zentrale Aufgabe des Journalismus, und die Vielzahl der Quellen und Verbreitungswege macht die Arbeit anspruchsvoller denn je. Aber es wäre ein Fehler, würden Redaktionen, ihre gesamte Energie in das Überprüfen von Inhalten anderer stecken. Ihre wichtigste Aufgabe ist es, mit guten Recherchen zu relevanten Themen selbst die Agenda zu setzen, statt sich von Lügnern in abseitige Debatten treiben zu lassen. Sie machen diese damit nur größer, als es ihnen gebührt.

Dieser Text erschien in leicht verkürzter Form als Editorial eines Whitepapers der Deutschen Presse-Agentur dpa am 6. Juli 2021.