Auf den ersten Blick sind viele Medienhäuser das Thema KI nahezu vorbildlich angegangen. Man kam schnell in den Tritt, experimentierte, bildete interdisziplinäre Teams, ernannte KI-Direktoren und, man hat schließlich Verantwortung, entwickelte Ethik-Regeln. Natürlich konnte sich die Branche auch über ein paar moralische Ausreißer empören – „Sports Illustrated!“, „Michael Schumacher Interview!“, „Burda-Kochzeitschrift!“ –, aber vielerorts sollten längliche Listen zu „Dos and Don’ts“ das Gröbste verhindern. Schade nur, dass sich die meisten dieser Regelwerke schon bald als eine Form von KI-Washing erweisen dürften. Denn sie gaukeln eine Kontrolle vor, die den Medienhäusern schon lange aus den Händen geglitten ist. Kurz gesagt: Wer jetzt keine Moral hat, entwickelt keine mehr.
Die Langversion ist: Der rasante technische Fortschritt und die Macht der Tech-Konzerne gepaart mit wirtschaftlichem und mancherorts politischem Druck haben Tatsachen geschaffen, denen selbst vorbildliches Management nur schwer beikommen kann. Dies legt die Recherche zu dem Report „Leading Newsrooms in the Age of Generative AI“ nahe, den ich für die European Broadcasting Union recherchiert und geschrieben habe.
Da ist zunächst einmal das Thema „Shadow AI“. Die größten Veränderungen würden derzeit nicht von Medienhäusern angestoßen, sondern entstünden dadurch, dass Journalisten KI-Tools einfach nutzten, beobachtet Ezra Eeman, KI-Direktor des niederländischen Broadcasters NPO. Anders als vor 25 Jahren, als man Redakteure und Reporter noch mühevoll vom Sinn digitaler Tools und Plattformen überzeugen musste, sind KI-Werkzeuge so intuitiv zu bedienen, dass Menschen sie im Privatleben noch häufiger anwenden als bei der Arbeit, wie eine jüngst veröffentlichte Studiezumindest mit Blick auf die USA ergab. Ein Report der Thomson Reuters Foundation stützt die These für Journalisten im Globalen Süden: 80 Prozent der Befragten nutzten KI bei der Arbeit, aber noch nicht einmal 20 Prozent von deren Redaktionen hatte eine entsprechende Strategie oder Politik. Dabei können in Organisationen beide Gruppen zum Problem werden: die Techies, die beim Experimentieren Grenzen überschreiten, und die Unbedarften, die aus Unkenntnis Fehler machen, zum Beispiel sensible Daten preisgeben.
Von Journalisten, die so unter Zeitdruck stehen, dass sich manche noch nicht einmal aufs Klo trauen, kann man nicht erwarten, dass sie alle KI-Regeln verinnerlicht haben.
Hinzu kommt, dass viele Ethik-Richtlinien nicht alltagstauglich sind. Die BBC ist sicher stolz darauf, dass sie ihre aktuelle Guidance zu KI in nur neun Punkten untergebracht hat – zuzüglich Unterpunkten. Aber von Redakteuren, die in ihren Schichten so unter Zeitdruck stehen, dass sich manche noch nicht einmal aufs Klo trauen, kann man nicht erwarten, dass sie alle Vorschriften verinnerlicht haben. Die Arbeitsbelastung drängt Journalisten vermutlich eher stärker in die Anwendung von KI. So, wie bislang streckenweise Text aus der dpa-Meldung herhalten musste, wird künftig ein LLM zurate gezogen, wenn sich damit Zeit sparen lässt.
Besonders schwer durchzuhalten ist die derzeit beliebteste Regel: „Human in the loop“ – ein Mensch sollte den letzten Blick auf KI-generierte Inhalte haben, bevor sie publiziert werden. Schon im regulären Betrieb übersehen Redakteure Fehler. Wenn KI-Tools die Output-Geschwindigkeit vervielfachen, kommen Menschen kognitiv an ihre Grenzen. Und sollten sie dennoch sorgfältig arbeiten, verhindern sie zwangsläufig die von der Geschäftsführung erhofften Effizienzgewinne. Das „Human in the Loop“-Prinzip sabotiere die Skalierbarkeit, die man sich von KI erhoffe, schreibt Felix Simon in einem Kommentar für das Reuters Institute.
Im Zweifel winden sich Redaktionen mit Disclaimern aus der Vorgabe heraus. Man kennzeichne Inhalte, die mit KI übersetzt oder produziert seien, heißt es dann, auf Deutsch: Man übernehme keine Verantwortung für Fehler. Das kann gut gehen und wird in einigen Fällen vom Publikum akzeptiert, zum Beispiel beim Untertiteln von TV-Beiträgen. Da überwiegt der Wunsch nach Verständlichkeit, zum Beispiel bei Hörgeschädigten. Es kann aber auch Mist herauskommen, wie bei Texten der Washington Post, die in Publikationen der Ippen-Gruppe von einer KI übersetzt und verbreitet werden. Außerdem gibt es auch im hochwertigen Journalismus Anwendungsfälle, in denen starre Regeln nicht helfen. Verbiete man zum Beispiel generell geklonte Stimmen, verbaue man sich erzählerische Möglichkeiten. Auch öffentlich-rechtliche Sender haben schon Stimmklone von historischen Protagonisten genutzt, um Zeitgeschichte anschaulicher zu machen.
In all diesen Fällen helfen keine im Intranet geparkten Richtlinien. Wirkungsvoller ist eine Mischung aus technischen Lösungen, Schulungen und Debatten: Gewünschte Anwendungen müssen im CMS automatisiert werden. Bei Experimenten und in Trainings können die Nutzenden KI-Wissen und den Umgang damit erwerben. Und wer regelmäßig über Werte redet, auch in durchaus strittigen Fällen, denkt womöglich öfter darüber nach und handelt entsprechend. Mitarbeitern bei jedem Recherche- und Produktionsschritt auf die Tastatur zu schauen, hat im Journalismus noch nie funktioniert. Jeder Einzelne muss seinen Werte-Kompass selbst kalibrieren und ihm folgen.
Kein KI-Tool wird fehlendes Vertrauen ersetzen können. Aber ein gedankenloser Einsatz von KI kann mühsam aufgebautes Vertrauen zerstören
Das nutzt allerdings wenig, wenn die Führungsetage keinen hat. Der Besitzer der Los Angeles Times zum Beispiel hatte kürzlich verfügt, die Redaktion müsse Kommentare mit einem Werkzeug namens Bias Meterversehen. Die KI weist Leser automatisch auf Gegenpositionen hin. Offensichtlich wird der Output nicht von Menschen gegengelesen. Sonst wäre womöglich doch jemandem aufgefallen, dass die Maschine den Ku Klux Klan in etwas zu sanftes Licht getaucht hatte. Aber das sind Details. Kein KI-Tool wird fehlendes Vertrauen ersetzen können. Aber ein gedankenloser Einsatz von KI kann mühsam aufgebautes Vertrauen zerstören – in der Belegschaft und beim Publikum.
Was Ethik-Regeln in Medienhäusern allerdings gänzlich obsolet machen könnte, ist die Übermacht der Tech-Konzerne. Je mehr KI in allen Tools steckt, die jeder im Alltag nutzt, umso weniger werden Anwender die dahinterliegenden Werte hinterfragen. Dass die Smartphone-Kamera den Himmel immer etwas blauer macht als jenen, den man vor sich sieht – geschenkt. Dass Suchmaschinen die Antworten dank KI immer leichter verdaulich machen – angenehm. Dass Textverarbeitungsprogramme zunehmend zu Redakteuren werden, bevor ein Redakteur das Stück gesehen hat – warum nicht? Nur die großen Häuser werden es sich leisten können, die eigenen Standards in ihren Systemen zu hinterlegen, und womöglich sind auch die mit KI infiltriert. Der Rest arbeitet mit Office und Co..
Das alles muss nicht schlecht sein. Autopiloten haben den Luftverkehr um ein Vielfaches sicherer gemacht, autonomes Fahren wird das Gleiche auf den Straßen erreichen. Womöglich schafft es auch der KI-unterstützte Journalismus, das Niveau des Gesamt-Outputs ordentlich anzuheben. Nach den Verwüstungen des Reichweiten-Zeitalters ist das bei manchen Publikationen gar nicht so schwer. KI-Tools können irgendwann womöglich sogar dabei helfen, Ethik-Regeln zu implementieren. Entscheidend ist, wessen Regeln das sein werden.
Diese Kolumne erschien bei Medieninsider am 17. März 2025. Neue und ältere Kolumnen kann man dort mit einem Abo lesen.


