Die Black Box der KI-Debatte: Worüber Medienmacher lieber schweigen

Es gibt dieser Tage zwei Sorten von Medienmachern: diejenigen, die sich tagein, tagaus mit künstlicher Intelligenz beschäftigen und diejenigen, die das nicht tun. Zuweilen entsteht der Eindruck, dass die erste Gruppe vor Begeisterung kaum noch wahrnimmt, dass es die zweite überhaupt gibt. Es ist ein bisschen wie in den frühen Tagen des Online-Journalismus: Die einen vernetzen sich mit Gleichgesinnten, kommentieren dieselben Studien, treffen sich auf den immer gleichen Konferenzen, vergleichen ihre Tools. Die anderen versuchen, einfach ihren Job zu machen. Wie damals scheint in der Branche eine Art Bekenntniszwang zu herrschen: Entweder man schwärmt von den Möglichkeiten der KI, oder man recherchiert, wann sie denn nun die Menschheit auslöschen wird. Viele andere halten aber lieber die Klappe. Sie sorgen sich, als Innovationsfeinde zu gelten.    

Dabei wäre gerade jetzt, wo die ersten KI-Tools ausgerollt werden, eine breite und vielschichtige Debatte wichtig. Denn es geht um praktisch alles: jeden einzelnen Job, den Wert der jeweiligen Marke, die Zukunft von Geschäftsmodellen, das Vertrauen in den Journalismus als Ganzen. Der Launch von ChatGPT im November 2022 hat ein Tor aufgemacht, hinter dem sich verschiedene Wege auftun. Jene first mover, die das Thema vorantreiben, sind gut beraten, jene außerhalb ihrer Bubble um kritische Fragen zu bitten – so, wie es der Herausgeber der New York Times, A.G. Sulzberger, in einem kürzlich veröffentlichten Interview empfiehlt: „Ich habe die Erkenntnis gewonnen, dass der Weg voran in jeglicher Phase gigantischer Transformation ist, Fragen zu stellen, die Antworten mit Skepsis zu betrachten und an keine Wunderwaffen zu glauben.“

Eine Kolumne kann das Für und Wider des Einsatzes generativer KI im Journalismus nicht erschöpfend behandeln. Aus der Fülle der Szenarien und Argumente sollen hier deshalb nur ein paar Themen angerissen werden, über die derzeit selten oder gar nicht gesprochen wird. Es geht sozusagen um die Black Box der Debatte.

Erstens: Alle reden über gefährdete Jobs, kaum jemand über Verantwortung und Haftung 

Der Einsatz generativer KI in Redaktionen ist deshalb so riskant, weil sie streng genommen im Widerspruch zum Kern des Journalismus steht. Journalismus bedeutet Faktentreue und Genauigkeit; so definierte es der Ausschuss zu Qualitätsjournalismus des Europarats. Wer es pathetischer mag, spricht von Wahrheit. Große Sprachmodelle, wie sie der GenKI zugrunde liegen, berechnen aber lediglich Wahrscheinlichkeiten. Ihr Ziel ist es, sich den Fakten möglichst weit anzunähern und damit im Zweifel Wahrheit zu simulieren. Bestehen Lücken, halluzinieren sie. Einem Großteil der Nutzer ist dies mittlerweile bewusst. Dies bedeutet aber auch, dass Journalisten sämtliche Fakten überprüfen müssen, bevor sie bei mit KI ergänzten Texten oder Illustrationen auf den Sendeknopf drücken. Eine Recherche des britischen Mediendienstes Press Gazette beschreibt entsprechende Prozesse rund um ein neues Tool namens Gutenbot, mit dem die Verlagsgruppe Reach ihre Reichweite steigert. Dem Bericht zufolge ist der Produktionsdruck immens. Wer aber haftet bei Fehlern? Sind es die Hersteller der Tools, die Verlage, oder die Redakteure am Ende der Kette? Während zum Beispiel beim Einsatz selbstfahrender Autos Haftungsfragen im Kern der Debatte stehen, werden sie im Journalismus kaum thematisiert. Dies ist jedoch zwingend, sobald KI-Experimente für den täglichen Gebrauch skaliert werden. Die Glaubwürdigkeit ist das höchste Gut einer Medienmarke. Wer Gefahr läuft, sie zu ruinieren, sollte das Risiko kennen.

Zweitens: Es wird viel darüber gesprochen, was geht, aber wenig darüber, was das Publikum wirklich braucht 

Generative KI ermöglicht vieles, sekundenschnelle Übersetzungen in viele Sprachen gehören derzeit zu ihren stärksten funktionstüchtigen Features. Theoretisch könnte jedes Medienhaus seine Inhalte auf diese Weise im Rest der Welt verbreiten. Aber ist es wirklich das, worauf die Welt wartet? Tech-affine Journalisten und Manager sind schnell begeistert von neuen Tools und Formaten, doch manches davon lässt die Nutzer kalt. Man denke an komplizierte Multimedia-Produktionen, Nachrichten auf Abruf über smarte Lautsprecher, virtuelle Realität oder auch die simple Kommentarfunktion unter Onlinetexten. Der größte Teil der Journalismuskonsumenten zeigte kein Interesse daran (ebenso wie die sich ihrer Nutzer-Forschung gerne rühmenden Tech-Konzerne bislang weder smarte Brillen noch das Metaverse unter die Leute bringen konnten). Wie das Publikum reagiert, gehört bislang zu den großen Unbekannten in der KI-gestützten Medienwelt. Je bequemer zu nutzen, desto besser – das könnte eine Faustregel sein. Aber inmitten der Flut an (KI-fabrizierten) Inhalten und Deep Fakes könnte auch das Bedürfnis nach Wahrhaftigkeit wachsen. Der Journalismus muss erforschen, was seinen Adressaten wirklich nutzt.   

Drittens: Es wird viel über Anwendungen gesprochen aber wenig darüber, was die dahinterliegende Technologie für Klima, Umwelt und Arbeitnehmer bedeutet

Generative KI verbraucht ein Vielfaches der Energie, die eine Google-Suche benötigt. Der CO2-Fußabdruck ist Fachleuten zufolge geschätzt fünfmal so hoch. Hinzu kommt der Wasserverbrauch in den Serverparks jener Tech Konzerne, über die die gängigsten Modelle laufen. Eine Studie des Data and Society Research Institutes beschäftigt sich nicht nur mit den Umweltkosten von generativer KI sondern auch damit, unter welchen Bedingungen Menschen die entsprechenden Modelle trainieren oder für Rohstoff-Nachschub sorgen. In den Medienhäusern herrscht dazu Schweigen. Chefredakteure, die noch vor Kurzem beim Klimajournalismus nachlegen wollten, schwärmen nun von den Möglichkeiten der KI. Nachhaltigkeit war gestern. Das ist einer Branche unwürdig, die verspricht, die Öffentlichkeit über Zukunftsfragen aufzuklären. Hier gilt die alte Regel, man muss nicht alles machen, was man machen kann. 

Viertens: Viele Redaktionen arbeiten an ethischen Regeln für den Gebrauch von KI, aber wenige thematisieren, was außerhalb ihres Einflusses liegt 

Mittlerweile gibt es in fast allen großen Medienhäusern ethische Regeln für den Einsatz von KI. Der Bayerische Rundfunk gehörte zu den ersten in Deutschland, die solche publik gemacht hatten. Im Detail unterscheiden sich die Dokumente, aber allen ist gemeinsam, dass sie sich um eine Balance zwischen Experimentierfreude und Risikobegrenzung bemühen. Das ist lobenswert. Aber wie wirksam werden solche ethischen Gerüste sein, wenn Mitarbeiter Software-Pakete nutzen, deren Vorgaben sie weder einsehen können noch verstehen würden? In den meisten Organisationen ist die Abhängigkeit von Microsoft Teams schon jetzt gewaltig. Die gegenwärtigen Co-Pilot-Funktionen dürften sich täglich verbessern. Auf manchem mit dem Smartphone aufgenommenen Foto ist der Himmel schon lange blauer als in Wirklichkeit. Da können Redaktionen noch so sehr beschwören, Bilder nicht zu verfälschen. Die Abhängigkeit von wenigen Tech-Konzernen ist auch im Kleinen immens, nicht nur im Großen, wenn es um Geschäftsmodelle geht. Felix Simon hat dieses Spannungsverhältnis in einem Report für das Tow-Center an der Columbia Universität gut beschrieben. Nicht jedes Haus wird es sich leisten können, eigene Sprachmodelle zu bauen. Da helfen nur branchenübergreifende Kooperationen. Die Zukunft der Medien wird auch davon abhängen, wie gut eine solche Zusammenarbeit klappt.   

Fünftens: Redaktionen betonen die Bedeutung von Menschen am Ende der KI-Produktionskette, aber was ist mit dem Anfang? 

Das Thema Vielfalt ist in den Medienhäusern in den vergangenen Jahren viel diskutiert worden – und es fällt ihnen immer wieder vor die Füße. Bauern, die mit Traktoren die Auslieferungen von Zeitungen verhindern wollten, haben Chefredaktionen jüngst daran erinnert, dass Vielfalt nicht nur Gleichstellung der Geschlechter und ethnische Diversität bedeutet, sondern dass auch der Stadt-Land-Konflikt einiger Aufmerksamkeit bedarf. Wenn Redaktionen nicht gegensteuern, werden KI-getriebene Produkte Stereotype eher verstärken als brechen – oder sich beim Brechen vergreifen, so wie der kürzlich von Google zurückgezogene Bild-Generator, der zu viel Diversity abbildete. Auch Redaktionen, die den Grundsatz „Human in the loop“ beherzigen, werden es im Eifer des Gefechts schwer haben solche Fehlgriffe zu reparieren. Hinzu kommt, dass KI zunehmend ins Recruitment einziehen wird, zum Beispiel als Tool zum Sichten von Lebensläufen. Journalismus sollte die Gesellschaft abbilden, wie sie ist. Dieses Ziel muss stehen. Hoffentlich gibt es künftig ein paar KI-Tools, die dabei helfen. 

Ohnehin sollte KI im Journalismus Werkzeug bleiben und nicht zum Schöpfer werden. Um es mit A.G. Sulzbergers Worten aus dem zuvor zitierten Interview zu sagen: „Unser Vorteil ist, dass wir von Menschen geführte Unternehmen sind, in denen Journalisten von den besten Redakteuren unterstützt werden und die Redakteure von den höchsten Standards. Wir müssen dafür sorgen, dass diese Werkzeuge immer für uns arbeiten, und dass wir mit unseren Namen dahinterstehen, statt ihnen ein Eigenleben zu gewähren, wie wir das andere haben tun sehen.“ 

Auch jeder Hype hat ein Eigenleben. Umso wichtiger ist es zu definieren, was Journalismus in der KI-Zukunft leisten soll.  

Diese Kolumne erschien bei Medieninsider am 27. Februar 2024.