KI-Washing: Wer jetzt keine Moral hat, entwickelt keine mehr

Auf den ersten Blick sind viele Medienhäuser das Thema KI nahezu vorbildlich angegangen. Man kam schnell in den Tritt, experimentierte, bildete interdisziplinäre Teams, ernannte KI-Direktoren und, man hat schließlich Verantwortung, entwickelte Ethik-Regeln. Natürlich konnte sich die Branche auch über ein paar moralische Ausreißer empören – „Sports Illustrated!“, „Michael Schumacher Interview!“, „Burda-Kochzeitschrift!“ –, aber vielerorts sollten längliche Listen zu „Dos and Don’ts“ das Gröbste verhindern. Schade nur, dass sich die meisten dieser Regelwerke schon bald als eine Form von KI-Washing erweisen dürften. Denn sie gaukeln eine Kontrolle vor, die den Medienhäusern schon lange aus den Händen geglitten ist. Kurz gesagt: Wer jetzt keine Moral hat, entwickelt keine mehr.

Die Langversion ist: Der rasante technische Fortschritt und die Macht der Tech-Konzerne gepaart mit wirtschaftlichem und mancherorts politischem Druck haben Tatsachen geschaffen, denen selbst vorbildliches Management nur schwer beikommen kann. Dies legt die Recherche zu dem Report „Leading Newsrooms in the Age of Generative AI“ nahe, den ich für die European Broadcasting Union recherchiert und geschrieben habe.

Da ist zunächst einmal das Thema „Shadow AI“. Die größten Veränderungen würden derzeit nicht von Medienhäusern angestoßen, sondern entstünden dadurch, dass Journalisten KI-Tools einfach nutzten, beobachtet Ezra Eeman, KI-Direktor des niederländischen Broadcasters NPO. Anders als vor 25 Jahren, als man Redakteure und Reporter noch mühevoll vom Sinn digitaler Tools und Plattformen überzeugen musste, sind KI-Werkzeuge so intuitiv zu bedienen, dass Menschen sie im Privatleben noch häufiger anwenden als bei der Arbeit, wie eine jüngst veröffentlichte Studiezumindest mit Blick auf die USA ergab. Ein Report der Thomson Reuters Foundation stützt die These für Journalisten im Globalen Süden: 80 Prozent der Befragten nutzten KI bei der Arbeit, aber noch nicht einmal 20 Prozent von deren Redaktionen hatte eine entsprechende Strategie oder Politik. Dabei können in Organisationen beide Gruppen zum Problem werden: die Techies, die beim Experimentieren Grenzen überschreiten, und die Unbedarften, die aus Unkenntnis Fehler machen, zum Beispiel sensible Daten preisgeben.

Von Journalisten, die so unter Zeitdruck stehen, dass sich manche noch nicht einmal aufs Klo trauen, kann man nicht erwarten, dass sie alle KI-Regeln verinnerlicht haben. 

Hinzu kommt, dass viele Ethik-Richtlinien nicht alltagstauglich sind. Die BBC ist sicher stolz darauf, dass sie ihre aktuelle Guidance zu KI in nur neun Punkten untergebracht hat – zuzüglich Unterpunkten. Aber von Redakteuren, die in ihren Schichten so unter Zeitdruck stehen, dass sich manche noch nicht einmal aufs Klo trauen, kann man nicht erwarten, dass sie alle Vorschriften verinnerlicht haben. Die Arbeitsbelastung drängt Journalisten vermutlich eher stärker in die Anwendung von KI. So, wie bislang streckenweise Text aus der dpa-Meldung herhalten musste, wird künftig ein LLM zurate gezogen, wenn sich damit Zeit sparen lässt.

Besonders schwer durchzuhalten ist die derzeit beliebteste Regel: „Human in the loop“ – ein Mensch sollte den letzten Blick auf KI-generierte Inhalte haben, bevor sie publiziert werden. Schon im regulären Betrieb übersehen Redakteure Fehler. Wenn KI-Tools die Output-Geschwindigkeit vervielfachen, kommen Menschen kognitiv an ihre Grenzen. Und sollten sie dennoch sorgfältig arbeiten, verhindern sie zwangsläufig die von der Geschäftsführung erhofften Effizienzgewinne. Das „Human in the Loop“-Prinzip sabotiere die Skalierbarkeit, die man sich von KI erhoffe, schreibt Felix Simon in einem Kommentar für das Reuters Institute.

Im Zweifel winden sich Redaktionen mit Disclaimern aus der Vorgabe heraus. Man kennzeichne Inhalte, die mit KI übersetzt oder produziert seien, heißt es dann, auf Deutsch: Man übernehme keine Verantwortung für Fehler. Das kann gut gehen und wird in einigen Fällen vom Publikum akzeptiert, zum Beispiel beim Untertiteln von TV-Beiträgen. Da überwiegt der Wunsch nach Verständlichkeit, zum Beispiel bei Hörgeschädigten. Es kann aber auch Mist herauskommen, wie bei Texten der Washington Post, die in Publikationen der Ippen-Gruppe von einer KI übersetzt und verbreitet werden. Außerdem gibt es auch im hochwertigen Journalismus Anwendungsfälle, in denen starre Regeln nicht helfen. Verbiete man zum Beispiel generell geklonte Stimmen, verbaue man sich erzählerische Möglichkeiten. Auch öffentlich-rechtliche Sender haben schon Stimmklone von historischen Protagonisten genutzt, um Zeitgeschichte anschaulicher zu machen.    

In all diesen Fällen helfen keine im Intranet geparkten Richtlinien. Wirkungsvoller ist eine Mischung aus technischen Lösungen, Schulungen und Debatten: Gewünschte Anwendungen müssen im CMS automatisiert werden. Bei Experimenten und in Trainings können die Nutzenden KI-Wissen und den Umgang damit erwerben. Und wer regelmäßig über Werte redet, auch in durchaus strittigen Fällen, denkt womöglich öfter darüber nach und handelt entsprechend. Mitarbeitern bei jedem Recherche- und Produktionsschritt auf die Tastatur zu schauen, hat im Journalismus noch nie funktioniert. Jeder Einzelne muss seinen Werte-Kompass selbst kalibrieren und ihm folgen.

Kein KI-Tool wird fehlendes Vertrauen ersetzen können. Aber ein gedankenloser Einsatz von KI kann mühsam aufgebautes Vertrauen zerstören

Das nutzt allerdings wenig, wenn die Führungsetage keinen hat. Der Besitzer der Los Angeles Times zum Beispiel hatte kürzlich verfügt, die Redaktion müsse Kommentare mit einem Werkzeug namens Bias Meterversehen. Die KI weist Leser automatisch auf Gegenpositionen hin. Offensichtlich wird der Output nicht von Menschen gegengelesen. Sonst wäre womöglich doch jemandem aufgefallen, dass die Maschine den Ku Klux Klan in etwas zu sanftes Licht getaucht hatte. Aber das sind Details. Kein KI-Tool wird fehlendes Vertrauen ersetzen können. Aber ein gedankenloser Einsatz von KI kann mühsam aufgebautes Vertrauen zerstören – in der Belegschaft und beim Publikum.

Was Ethik-Regeln in Medienhäusern allerdings gänzlich obsolet machen könnte, ist die Übermacht der Tech-Konzerne. Je mehr KI in allen Tools steckt, die jeder im Alltag nutzt, umso weniger werden Anwender die dahinterliegenden Werte hinterfragen. Dass die Smartphone-Kamera den Himmel immer etwas blauer macht als jenen, den man vor sich sieht – geschenkt. Dass Suchmaschinen die Antworten dank KI immer leichter verdaulich machen – angenehm. Dass Textverarbeitungsprogramme zunehmend zu Redakteuren werden, bevor ein Redakteur das Stück gesehen hat – warum nicht? Nur die großen Häuser werden es sich leisten können, die eigenen Standards in ihren Systemen zu hinterlegen, und womöglich sind auch die mit KI infiltriert. Der Rest arbeitet mit Office und Co..

Das alles muss nicht schlecht sein. Autopiloten haben den Luftverkehr um ein Vielfaches sicherer gemacht, autonomes Fahren wird das Gleiche auf den Straßen erreichen. Womöglich schafft es auch der KI-unterstützte Journalismus, das Niveau des Gesamt-Outputs ordentlich anzuheben. Nach den Verwüstungen des Reichweiten-Zeitalters ist das bei manchen Publikationen gar nicht so schwer. KI-Tools können irgendwann womöglich sogar dabei helfen, Ethik-Regeln zu implementieren. Entscheidend ist, wessen Regeln das sein werden.

Diese Kolumne erschien bei Medieninsider am 17. März 2025. Neue und ältere Kolumnen kann man dort mit einem Abo lesen. 

Die Black Box der KI-Debatte: Worüber Medienmacher lieber schweigen

Es gibt dieser Tage zwei Sorten von Medienmachern: diejenigen, die sich tagein, tagaus mit künstlicher Intelligenz beschäftigen und diejenigen, die das nicht tun. Zuweilen entsteht der Eindruck, dass die erste Gruppe vor Begeisterung kaum noch wahrnimmt, dass es die zweite überhaupt gibt. Es ist ein bisschen wie in den frühen Tagen des Online-Journalismus: Die einen vernetzen sich mit Gleichgesinnten, kommentieren dieselben Studien, treffen sich auf den immer gleichen Konferenzen, vergleichen ihre Tools. Die anderen versuchen, einfach ihren Job zu machen. Wie damals scheint in der Branche eine Art Bekenntniszwang zu herrschen: Entweder man schwärmt von den Möglichkeiten der KI, oder man recherchiert, wann sie denn nun die Menschheit auslöschen wird. Viele andere halten aber lieber die Klappe. Sie sorgen sich, als Innovationsfeinde zu gelten.    

Dabei wäre gerade jetzt, wo die ersten KI-Tools ausgerollt werden, eine breite und vielschichtige Debatte wichtig. Denn es geht um praktisch alles: jeden einzelnen Job, den Wert der jeweiligen Marke, die Zukunft von Geschäftsmodellen, das Vertrauen in den Journalismus als Ganzen. Der Launch von ChatGPT im November 2022 hat ein Tor aufgemacht, hinter dem sich verschiedene Wege auftun. Jene first mover, die das Thema vorantreiben, sind gut beraten, jene außerhalb ihrer Bubble um kritische Fragen zu bitten – so, wie es der Herausgeber der New York Times, A.G. Sulzberger, in einem kürzlich veröffentlichten Interview empfiehlt: „Ich habe die Erkenntnis gewonnen, dass der Weg voran in jeglicher Phase gigantischer Transformation ist, Fragen zu stellen, die Antworten mit Skepsis zu betrachten und an keine Wunderwaffen zu glauben.“

Eine Kolumne kann das Für und Wider des Einsatzes generativer KI im Journalismus nicht erschöpfend behandeln. Aus der Fülle der Szenarien und Argumente sollen hier deshalb nur ein paar Themen angerissen werden, über die derzeit selten oder gar nicht gesprochen wird. Es geht sozusagen um die Black Box der Debatte.

Erstens: Alle reden über gefährdete Jobs, kaum jemand über Verantwortung und Haftung 

Der Einsatz generativer KI in Redaktionen ist deshalb so riskant, weil sie streng genommen im Widerspruch zum Kern des Journalismus steht. Journalismus bedeutet Faktentreue und Genauigkeit; so definierte es der Ausschuss zu Qualitätsjournalismus des Europarats. Wer es pathetischer mag, spricht von Wahrheit. Große Sprachmodelle, wie sie der GenKI zugrunde liegen, berechnen aber lediglich Wahrscheinlichkeiten. Ihr Ziel ist es, sich den Fakten möglichst weit anzunähern und damit im Zweifel Wahrheit zu simulieren. Bestehen Lücken, halluzinieren sie. Einem Großteil der Nutzer ist dies mittlerweile bewusst. Dies bedeutet aber auch, dass Journalisten sämtliche Fakten überprüfen müssen, bevor sie bei mit KI ergänzten Texten oder Illustrationen auf den Sendeknopf drücken. Eine Recherche des britischen Mediendienstes Press Gazette beschreibt entsprechende Prozesse rund um ein neues Tool namens Gutenbot, mit dem die Verlagsgruppe Reach ihre Reichweite steigert. Dem Bericht zufolge ist der Produktionsdruck immens. Wer aber haftet bei Fehlern? Sind es die Hersteller der Tools, die Verlage, oder die Redakteure am Ende der Kette? Während zum Beispiel beim Einsatz selbstfahrender Autos Haftungsfragen im Kern der Debatte stehen, werden sie im Journalismus kaum thematisiert. Dies ist jedoch zwingend, sobald KI-Experimente für den täglichen Gebrauch skaliert werden. Die Glaubwürdigkeit ist das höchste Gut einer Medienmarke. Wer Gefahr läuft, sie zu ruinieren, sollte das Risiko kennen.

Zweitens: Es wird viel darüber gesprochen, was geht, aber wenig darüber, was das Publikum wirklich braucht 

Generative KI ermöglicht vieles, sekundenschnelle Übersetzungen in viele Sprachen gehören derzeit zu ihren stärksten funktionstüchtigen Features. Theoretisch könnte jedes Medienhaus seine Inhalte auf diese Weise im Rest der Welt verbreiten. Aber ist es wirklich das, worauf die Welt wartet? Tech-affine Journalisten und Manager sind schnell begeistert von neuen Tools und Formaten, doch manches davon lässt die Nutzer kalt. Man denke an komplizierte Multimedia-Produktionen, Nachrichten auf Abruf über smarte Lautsprecher, virtuelle Realität oder auch die simple Kommentarfunktion unter Onlinetexten. Der größte Teil der Journalismuskonsumenten zeigte kein Interesse daran (ebenso wie die sich ihrer Nutzer-Forschung gerne rühmenden Tech-Konzerne bislang weder smarte Brillen noch das Metaverse unter die Leute bringen konnten). Wie das Publikum reagiert, gehört bislang zu den großen Unbekannten in der KI-gestützten Medienwelt. Je bequemer zu nutzen, desto besser – das könnte eine Faustregel sein. Aber inmitten der Flut an (KI-fabrizierten) Inhalten und Deep Fakes könnte auch das Bedürfnis nach Wahrhaftigkeit wachsen. Der Journalismus muss erforschen, was seinen Adressaten wirklich nutzt.   

Drittens: Es wird viel über Anwendungen gesprochen aber wenig darüber, was die dahinterliegende Technologie für Klima, Umwelt und Arbeitnehmer bedeutet

Generative KI verbraucht ein Vielfaches der Energie, die eine Google-Suche benötigt. Der CO2-Fußabdruck ist Fachleuten zufolge geschätzt fünfmal so hoch. Hinzu kommt der Wasserverbrauch in den Serverparks jener Tech Konzerne, über die die gängigsten Modelle laufen. Eine Studie des Data and Society Research Institutes beschäftigt sich nicht nur mit den Umweltkosten von generativer KI sondern auch damit, unter welchen Bedingungen Menschen die entsprechenden Modelle trainieren oder für Rohstoff-Nachschub sorgen. In den Medienhäusern herrscht dazu Schweigen. Chefredakteure, die noch vor Kurzem beim Klimajournalismus nachlegen wollten, schwärmen nun von den Möglichkeiten der KI. Nachhaltigkeit war gestern. Das ist einer Branche unwürdig, die verspricht, die Öffentlichkeit über Zukunftsfragen aufzuklären. Hier gilt die alte Regel, man muss nicht alles machen, was man machen kann. 

Viertens: Viele Redaktionen arbeiten an ethischen Regeln für den Gebrauch von KI, aber wenige thematisieren, was außerhalb ihres Einflusses liegt 

Mittlerweile gibt es in fast allen großen Medienhäusern ethische Regeln für den Einsatz von KI. Der Bayerische Rundfunk gehörte zu den ersten in Deutschland, die solche publik gemacht hatten. Im Detail unterscheiden sich die Dokumente, aber allen ist gemeinsam, dass sie sich um eine Balance zwischen Experimentierfreude und Risikobegrenzung bemühen. Das ist lobenswert. Aber wie wirksam werden solche ethischen Gerüste sein, wenn Mitarbeiter Software-Pakete nutzen, deren Vorgaben sie weder einsehen können noch verstehen würden? In den meisten Organisationen ist die Abhängigkeit von Microsoft Teams schon jetzt gewaltig. Die gegenwärtigen Co-Pilot-Funktionen dürften sich täglich verbessern. Auf manchem mit dem Smartphone aufgenommenen Foto ist der Himmel schon lange blauer als in Wirklichkeit. Da können Redaktionen noch so sehr beschwören, Bilder nicht zu verfälschen. Die Abhängigkeit von wenigen Tech-Konzernen ist auch im Kleinen immens, nicht nur im Großen, wenn es um Geschäftsmodelle geht. Felix Simon hat dieses Spannungsverhältnis in einem Report für das Tow-Center an der Columbia Universität gut beschrieben. Nicht jedes Haus wird es sich leisten können, eigene Sprachmodelle zu bauen. Da helfen nur branchenübergreifende Kooperationen. Die Zukunft der Medien wird auch davon abhängen, wie gut eine solche Zusammenarbeit klappt.   

Fünftens: Redaktionen betonen die Bedeutung von Menschen am Ende der KI-Produktionskette, aber was ist mit dem Anfang? 

Das Thema Vielfalt ist in den Medienhäusern in den vergangenen Jahren viel diskutiert worden – und es fällt ihnen immer wieder vor die Füße. Bauern, die mit Traktoren die Auslieferungen von Zeitungen verhindern wollten, haben Chefredaktionen jüngst daran erinnert, dass Vielfalt nicht nur Gleichstellung der Geschlechter und ethnische Diversität bedeutet, sondern dass auch der Stadt-Land-Konflikt einiger Aufmerksamkeit bedarf. Wenn Redaktionen nicht gegensteuern, werden KI-getriebene Produkte Stereotype eher verstärken als brechen – oder sich beim Brechen vergreifen, so wie der kürzlich von Google zurückgezogene Bild-Generator, der zu viel Diversity abbildete. Auch Redaktionen, die den Grundsatz „Human in the loop“ beherzigen, werden es im Eifer des Gefechts schwer haben solche Fehlgriffe zu reparieren. Hinzu kommt, dass KI zunehmend ins Recruitment einziehen wird, zum Beispiel als Tool zum Sichten von Lebensläufen. Journalismus sollte die Gesellschaft abbilden, wie sie ist. Dieses Ziel muss stehen. Hoffentlich gibt es künftig ein paar KI-Tools, die dabei helfen. 

Ohnehin sollte KI im Journalismus Werkzeug bleiben und nicht zum Schöpfer werden. Um es mit A.G. Sulzbergers Worten aus dem zuvor zitierten Interview zu sagen: „Unser Vorteil ist, dass wir von Menschen geführte Unternehmen sind, in denen Journalisten von den besten Redakteuren unterstützt werden und die Redakteure von den höchsten Standards. Wir müssen dafür sorgen, dass diese Werkzeuge immer für uns arbeiten, und dass wir mit unseren Namen dahinterstehen, statt ihnen ein Eigenleben zu gewähren, wie wir das andere haben tun sehen.“ 

Auch jeder Hype hat ein Eigenleben. Umso wichtiger ist es zu definieren, was Journalismus in der KI-Zukunft leisten soll.  

Diese Kolumne erschien bei Medieninsider am 27. Februar 2024.