Endlich mal vorne: Warum Europas Medienhäuser die Amerikaner in Sachen KI abhängen

In Europa neigt man dazu, den eigenen Beitrag zum weltweiten technologischen Fortschritt eher verschämt zu kommentieren. Büro- statt Garagen-Geist, Brüssel statt Silicon Valley, Verbot statt Versuch, so etwa geht das mit der Selbst-Geißelung. Aber Achtung: Was das Feld Künstliche Intelligenz und Journalismus angeht, ist so ein Understatement nicht angebracht. Schon seit geraumer Zeit schauen KI-Spezialisten aus amerikanischen Medienhäusern mit gewissem Neid Richtung Europa, speziell nach Skandinavien. Was Anwendungen von KI im Journalismus angehe, sei man hier deutlich weiter und offener als im Land von Open AI und Google, grummelten US-Experten schon beim Nordic AI in Media Summit im April in Kopenhagen. Den von schwedischen und dänischen Initiatoren ins Leben gerufenen Gipfel kann man getrost als führendes Event zum Thema Medien und KI deklarieren.

Auch ein kürzlich vom Nieman Lab der Harvard University veröffentlichtes Feature über KI-Verifizierungs-Tools nennt überwiegend europäische Anwender; die dpa kommt prominent darin vor. Und wie zur Bestätigung ist die Craig Newmark Graduate School of Journalism an der City University New York nun eine Partnerschaft mit Nordic AI Journalism eingegangen. Geschäftsführerin Marie Gilot begründet das auf Nachfrage so: Die nordeuropäischen Medienhäuser seien nicht nur offener, sie blickten stärker auf die Möglichkeiten von KI für den Journalismus. Sie hätten früher als andere KI-Tools für interne und externe Anwendungen gebaut und bereits viele Erfahrungen damit. Bei solchen Komplimenten fühlt man sich gleich ein bisschen nordischer. Auch im EBU News Report Leading Newsrooms in the Age of Generative AI sind viele Beispiele aus Europa zusammengetragen.

Aus diesen zunächst erfreulichen Botschaften kann man zwei sehr unterschiedliche Schlüsse ziehen. Der eine wäre: Nach dem kräftezehrenden Weg vom Print zum Online-Journalismus sind die Europäer dieses Mal ganz wach. Sie wollen die Chancen des technologischen Wandels nicht noch einmal verpassen und gehen das Thema KI beherzt an. Ziel ist es den Journalismus besser und zugänglicher zu machen und, wer wollte es Verlagsmanagern verübeln, hoffentlich Kosten zu sparen. Die zweite Lesart wäre weniger bestärkend: Die Europäer sind naiv. Ohne Not machen sie sich noch stärker von Dritt-Plattformen abhängig, die Nutznießer sitzen weitgehend im Silicon Valley. Sie geben bereitwillig und im großen Stil Copyright und damit die Chance auf, ihre Inhalte teuer an die Tech-Konzerne zu verkaufen. Sie riskieren das Vertrauen des Publikums in ihren Journalismus und füttern eine Maschinerie mit dem Potential, zu den größten Strom-, Wasser- und Rohstoff-Fressern zu werden.

Tatsächlich ist an beiden Interpretationen etwas dran. Die Europäer sind tatsächlich vergleichsweise erfahren im Testen von KI-Tools für den Redaktionsalltag und in journalistischen Produkten, und das liegt nicht nur an schlechten Erfahrungen mit Trägheit. Sie haben einiges zu gewinnen – und viel zu verlieren. Während kommerzielle Verlage sich von KI vor allem mehr Effizienz versprechen und darauf hoffen, mit stärkerer Personalisierung mehr Abonnenten gewinnen und halten zu können, steht bei den öffentlich-rechtlichen Anbietern das Ansinnen im Mittelpunkt, den Journalismus im weiten Sinne barrierefrei und damit auftragsgemäß für alle zugänglich zu machen. Wenn KI-Tools dabei helfen, künftig mühelos zwischen Formaten zu wechseln und trockene Stoffe zu veranschaulichen, könnte jeder Nutzer Inhalte nach seinen Bedürfnissen abrufen. Der Bayerische Rundfunk, mit Chief AI Officer Uli Köppen ein KI-Vorreiter unter den öffentlich-rechtlichen Medien in Europa, nutzt die Technologie zum Beispiel unter anderem zum Moderieren von Online-Kommentaren – Auftrag: demokratische Debatte – und zur Regionalisierung – Auftrag: in die Fläche gehen.

Die europäischen Medienhäuser haben aber auch allen Grund, früh und ausführlich zu testen und damit Schwächen zu entdecken und auszumerzen. Denn für alle steht ihr größtes Kapital auf dem Spiel: das Vertrauen ihres Publikums (oder im Fall von dpa das ihrer Kunden). Falsche Informationen, verursacht durch KI-immanente Halluzinationen oder KI-Agenten, die Fakten verquirlen und verdrehen, rühren direkt an der Glaubwürdigkeit der Medien. Gerade die öffentlich-rechtlichen Anbieter können es sich nicht leisten, Zweifel an ihrer Existenzberechtigung aufkommen zu lassen. Deshalb wird hier besonders penibel getestet, wie sich die Faktentreue erhalten und womöglich stärken lässt (auch Journalisten machen Fehler). Eine BBC-Studie hatte in diesem Jahr ergeben, dass jedes zweite von externen KI-Assistenten erstellte Nachrichtenstück BBC Informationen nicht akkurat wiedergibt. Medienmarken anderer Länder haben ähnliche Erfahrungen gemacht.

In den USA liegen die Dinge etwas anders. Zunächst einmal haben dort mächtige Häuser wie die New York Times Open AI wegen Copyright Verstößen verklagt. Im Moment laufen landesweit etwa 40 Klagen, der Anbieter Anthropic einigte sich Anfang September mit einigen Verlagen und Autoren auf einen Vergleich in Höhe von 1,5 Milliarden Dollar. In Europa ist mit gerichtlichen Auseinandersetzungen in der Regel nicht so viel zu holen wie in Amerika, weshalb man hier womöglich einen weniger konfrontativen Weg eingeschlagen hat. Zudem scheint das Thema KI auf der anderen Seite des Atlantiks in den Zündstoff für politische Polarisierung eingeflossen zu sein. Sprich: Wer KI begrüßt, steht für ungebremsten Fortschritt und damit für den Geist des Silicon Valley, das sich bekanntermaßen zumindest in der Außenwirkung auf die Seite der Trump-Regierung geschlagen hat. Wer eher demokratisch denkt und wählt, nimmt womöglich eine eher technikkritische Haltung ein. Das Thema hat somit Potential, die Gesellschaft weiter zu spalten.

Ein derartiger ideologischer Ballast beschwert die europäische Debatte nicht, hier darf man weiterhin pragmatisch sein. Hinzu kommt, dass die Europäer zunehmend darum kämpfen, in Sachen Tech auf eigenen Füßen zu stehen. Digitale Souveränität ist das Ziel. Ein jüngster Ausdruck davon ist die Initiative europäischer Banken, mit dem Zahlungstool Wero eine Paypal-Alternative zu schaffen. Eine Verweigerungshaltung stünde solchen Bemühungen entgegen. Aus hiesiger Perspektive war es eher Naivität, sich von US-Konzernen mit allerlei digitalen Segnungen überrollen zu lassen.

Dass die Skandinavier in Sachen KI und Medien in den Lead gehen, verwundert nicht. Tatsächlich ist das schwedische Spotify der einzige europäische Anbieter, der es mit den Großen der Plattform-Wirtschaft in Sachen Einfluss und Endkundennähe aufnehmen kann. Ganz vorne bei der Nordic AI Journalism Initiative spielen auch Kollegen der dänischen Mediengruppe JP Politiken mit, deren CEO Stig Orskov vom kommenden Jahr an die World Association of News Publishers anführen wird.

Künstliche Intelligenz wird die Informations-, Kommunikations-, Bildungs- und damit die Medienlandschaft tiefgreifend verändern und uns alle herausfordern – unter anderem unsere Analysefähigkeit und Kreativität. Um diese Veränderungen mitgestalten zu können, muss man sie verstehen. Und damit verbindet sich die harte Arbeit des Testens, Anpassens, Implementierens und Evaluierens. Je früher Medienhäuser herausfinden, welche Stärken der Mensch in dieser neuen Welt ausspielen kann und muss, umso mehr dient das dem Journalismus. KI ist nichts für Feiglinge. Dass die Europäer dieses Mal mutig zugepackt haben, sollte einen freuen.                              

Diese Kolumne erschien bei Medieninsider am 22. September 2025. Aktuelle Kolumnen kann man dort mit einem Abo lesen. 

„Deal or deal with it“ – Was im Rennen um Verträge mit KI-Anbietern wichtig ist

Die Anbieter so genannter Large-Language-Modelle bilden neue KI-Oligopole, die Publisher in ein neues und zugleich längst bekanntes Dilemma stürzen. Über eine neue Bedrohung der Medienvielfalt und drei Aspekte, was Publisher dagegen unternehmen können.

Wer sein Berufsleben bei angesehenen Medienmarken verbracht hat, dem geht der Begriff Qualitätsjournalismus meist locker von den Lippen. Man macht sich eher selten bewusst, dass andere das Wort als Instrument der Zensur betrachten könnten. Viele derjenigen, die dem Journalistenberuf in eher repressiven politischen Umgebungen nachgehen, haben aber genau das schon erlebt: Ihnen wurden der Zugang verwehrt oder Informationen vorenthalten, weil Regierungen das Prädikat „Qualitätspresse“ auf diejenigen beschränkten, von denen sie sich geringen Gegenwind versprachen. Vor ein paar Jahren wäre der Experten-Ausschuss Qualitätsjournalismus im Europarat deshalb fast bei der Diskussion des Titels steckengeblieben. 

Deals mit OpenAI: Im Vordergrund geht es um Verlässlichkeit, im Hintergrund um Einnahmen

An diese Auseinandersetzung erinnert man sich, wenn nun ein Medienunternehmen nach dem anderen „Deals“ mit OpenAI, Microsoft oder anderen KI-Großanbietern abschließt. Auch hier geht es nämlich um „Qualitätsmedien“, nur haben die Definitionsmacht in diesem Fall kapitalstarke Unternehmen der Tech-Branche. Associated Press, Axel Springer (Politico, Insider, Bild, Welt), Financial Times, Le Monde, La Prisa, Newscorp (Wall Street Journal, New York Post) – alle haben bereits verschiedenste Vereinbarungen mit den Tech-Oligopolisten abgeschlossen. Vordergründig geben sie an, ihren Journalismus zur Verfügung zu stellen, um auf diese Weise die Verlässlichkeit der Sprachmodelle (Large Language Models, abgekürzt LLM) zu sichern. Im Hintergrund kämpfen sie um Einnahmen, um die künftige Sichtbarkeit ihrer Medien-Marken in KI-basierten Suchmaschinen – und damit ums Überleben ihrer Geschäftsmodelle. 

Andere wie die New York Times und sechs Regionalzeitungsmarken des US-Investors Alden Global Capital haben Open AI verklagt. Auch wenn sie argumentieren, es gehe ihnen um das Wohlergehen der amerikanischen Gesellschaft, wollen sie damit wohl vor allem den Preis nach oben treiben und sich Schadenersatzklagen vom Leib halten. Die stehen zu befürchten, sollten KI-Tools Medieninhalte mit unseriösen Quellen vermixen und daraufhin unter renommierten Marken Fehler verbreiten. Hier ist die Strategie umgekehrt: Qualität wird vorenthalten und als Druckmittel benutzt. 

Das alles ist legitim, aber wo bleibt der große und vielfältige Rest? Für wenige Auserwählte hieße die Entscheidung, „Deal or no deal“, schreibt Pete Brown in einer neuen Analyse in der Columbia Journalism Review, in der er die wenigen bekannten Daten zu den Geschäftsabschlüssen und ihre Bedeutung analysiert. Für diejenigen, die nicht an den Tisch geladen werden, heiße es eher: „deal with it“. Nach welchen Kriterien die Tech-Anbieter ihre Verhandlungspartner auswählen, welche Optionen jeweils im Gespräch sind, und um welche Volumina es geht, kann man nur erraten. Neben Marktanalysen dürfte Lobbying eine Rolle spielen und eben das, was Marken an „Qualität“ zu bieten haben. Die Monopolisten entscheiden nach Gutsherrenart. 

Jeder kämpft für sich – und stürzt alle in Abhängigkeiten

An für die sie weniger interessante Journalismus-Produzenten oder ihnen nahestehende Institutionen händigen sie als Trostpreis Förderprogramme aus, wie Medienhäuser dies schon von der Google News Initiative und dem Facebook Journalism Projekt kennen. Aber ein systematisches Herangehen ist weder von Seiten der Tech-Anbieter noch der Medienbranche erkennbar. Dort kämpft – bis auf Ausnahmen – fast jeder für sich allein. Damit verstricken sich die Medienhäuser immer weiter in das Netz von Abhängigkeiten, das Big Tech seit Beginn der Plattform-Ökonomie gesponnen hat. Nicht wenigen dürfte dabei die Luft ausgehen.

Die Bedrohung wirkt dieses Mal noch erdrückender als in den vorherigen Wellen der Digitalisierung, wo sich Medienhäuser immerhin Reichweite erhofften, weil ihre Marken in Suchergebnissen oder den sozialen Netzwerken auftauchten. Ob sich Nutzer mittelfristig noch über die beiden großen Loyalitätstreiber Apps und Webseiten binden lassen, wenn sich Wissens- und Informationshunger bequem durch Dialogformate stillen lassen, ist fraglich. Die Telekom hatte auf dem Mobile World Congress 2024 als erster Anbieter weltweit die Studie eines Smartphones ohne Apps präsentiert, bei dem ein KI-Assistent die Such-Arbeit übernimmt (sprachlich lässt man es gerne menscheln). 

Einige Experten vermuten allerdings, dass die Branche jetzt mehr Verhandlungsmacht hat. Das liegt daran, dass KI-getriebene Sprachmodelle viele Fehler machen, wenn sie nicht ständig mit frischen Fakten gefüttert werden – was in der Natur der Sache steckt. Schließlich kalkulieren sie nur Wahrscheinlichkeiten und brauchen Informationen zum Abgleich dessen, was richtig und falsch ist. In der Fachsprache heißt das retrieval-augmented generation (RAG). Mike Cook vom King’s College in London vergleicht diesen Prozess in einer Analyse für The Conversation mit einem Examen bei geöffnetem Lehrbuch. Auf einen Prompt hin kalkuliert das Modell die wahrscheinliche Antwort und gleicht sie mit Faktenwissen von verlässlichen Quellen ab. Verlässliche Informationen werden umso wichtiger, je mehr KI-generierte Inhalte das Internet zumüllen. Anbieter wie OpenAI fürchten deshalb juristische Auseinandersetzungen und Regulierung. Man kann sich allerdings vorstellen, dass die Anzahl der für diesen Abgleich nötigen „Lehrbücher“ begrenzt ist.

Drei Aspekte, die nun für Publisher wichtig werden

Für die Branche sind aus all diesen Gründen drei Dinge besonders wichtig. 

Erstens: Medienunternehmen müssen noch mehr als bislang alles daransetzen, direkte Beziehungen zu ihren Nutzern aufzubauen. Dies gilt besonders für Marken mit geringerer Reichweite, die eine geographische oder thematische Nische bedienen. Die Digitalisierung hat die Gründung neuer, rein digitaler Medienunternehmen ermöglicht und damit die Medienvielfalt gestärkt. Im Zeitalter der LLM werden es aber jene schwer haben, die auf rein transaktionale Beziehungen setzen. Nutzer werden nicht mehr für Inhalte bezahlen, die ihnen jeder Prompt liefern kann, sondern nur noch Geld ausgeben, wenn sie eine hohe emotionale Affinität zum Produkt, zum Team oder zur Marke haben. Daran gilt es zu arbeiten. Unternehmen, die auf Mitgliedschaften setzen, dürften einen Vorteil haben.

Zweitens: Alle Medienunternehmen sollten an ihren Qualitätsstandards arbeiten, wie sie zum Beispiel im Zertifizierungsprozess der Journalism Trust Initiative festgeschrieben sind. Regulierer könnten Tech-Anbietern wie OpenAI und Co. auferlegen, solche – einigermaßen objektiven – Gütekriterien zu nutzen, wenn sie künftig über Partnerschaften oder „Deals“ entscheiden. Auf diese Weise käme mehr Transparenz in den Verhandlungsprozess, Qualität wäre überprüfbar und nicht mehr über Bauchgefühl oder die lautesten Lobbyisten definiert. Renommierte Marken würden sich womöglich über ein mehr an Bürokratie ärgern, aber dafür hätte man die Wettbewerbsbedingungen etwas angeglichen. 

Drittens: Medienhäuser sollten sollten sich zusammenschließen und gemeinsam mit den KI-Herstellern verhandeln. Jeff Jarvis, emeritierter Journalismus Professor an der CUNY, schlägt vor, dass sich die Branche auf eine gemeinsame Schnittstelle – ein „News API“ – einigt, was den Lizensierungsprozess für das oben beschriebene Abgleichverfahren vereinfachen könnte. Dies könnte unter Federführung der Nachrichtenagenturen und Verbändengeschehen, sagte Jarvis in einem Interview für den EBU News Report Trusted News in the Age of Generative AI, der Mitte Juni erscheint (Alexandra ist Lead-Autorin des Reports). Ansätze für ein gemeinsames Vorgehen gibt es in Skandinavien, wo Verlage zum Beispiel in Norwegen an einem gemeinsamen Sprachmodell arbeiten oder sich wie in Schweden auf Standards zum Umgang mit KI geeinigt haben. 

Dass ein einheitliches Vorgehen gelingen könnte, daran glaubt derzeit zwar niemand in der Branche. Dazu gibt es zu viele Risse zwischen kommerziellen und öffentlich-rechtlichen Anbietern, zwischen digitalen Vorreitern und Hinterbänklern, zwischen Konkurrenten mit Blick auf Regionen und Fachgebiete und – nicht zu vergessen – zwischen der Medienbranche und der Tech-Industrie. Aber Veränderung gelingt bekanntlich, wenn der Druck hoch genug ist. Das könnte schon bald der Fall sein. An einer „data apocalypse“ (Mike Cook) kann niemandem gelegen sein. 

Dieser Text erschien am 30. Mai 2024 bei Medieninsider. Aktuelle Kolumnen lassen sich mit einem Abo lesen. 

Die Black Box der KI-Debatte: Worüber Medienmacher lieber schweigen

Es gibt dieser Tage zwei Sorten von Medienmachern: diejenigen, die sich tagein, tagaus mit künstlicher Intelligenz beschäftigen und diejenigen, die das nicht tun. Zuweilen entsteht der Eindruck, dass die erste Gruppe vor Begeisterung kaum noch wahrnimmt, dass es die zweite überhaupt gibt. Es ist ein bisschen wie in den frühen Tagen des Online-Journalismus: Die einen vernetzen sich mit Gleichgesinnten, kommentieren dieselben Studien, treffen sich auf den immer gleichen Konferenzen, vergleichen ihre Tools. Die anderen versuchen, einfach ihren Job zu machen. Wie damals scheint in der Branche eine Art Bekenntniszwang zu herrschen: Entweder man schwärmt von den Möglichkeiten der KI, oder man recherchiert, wann sie denn nun die Menschheit auslöschen wird. Viele andere halten aber lieber die Klappe. Sie sorgen sich, als Innovationsfeinde zu gelten.    

Dabei wäre gerade jetzt, wo die ersten KI-Tools ausgerollt werden, eine breite und vielschichtige Debatte wichtig. Denn es geht um praktisch alles: jeden einzelnen Job, den Wert der jeweiligen Marke, die Zukunft von Geschäftsmodellen, das Vertrauen in den Journalismus als Ganzen. Der Launch von ChatGPT im November 2022 hat ein Tor aufgemacht, hinter dem sich verschiedene Wege auftun. Jene first mover, die das Thema vorantreiben, sind gut beraten, jene außerhalb ihrer Bubble um kritische Fragen zu bitten – so, wie es der Herausgeber der New York Times, A.G. Sulzberger, in einem kürzlich veröffentlichten Interview empfiehlt: „Ich habe die Erkenntnis gewonnen, dass der Weg voran in jeglicher Phase gigantischer Transformation ist, Fragen zu stellen, die Antworten mit Skepsis zu betrachten und an keine Wunderwaffen zu glauben.“

Eine Kolumne kann das Für und Wider des Einsatzes generativer KI im Journalismus nicht erschöpfend behandeln. Aus der Fülle der Szenarien und Argumente sollen hier deshalb nur ein paar Themen angerissen werden, über die derzeit selten oder gar nicht gesprochen wird. Es geht sozusagen um die Black Box der Debatte.

Erstens: Alle reden über gefährdete Jobs, kaum jemand über Verantwortung und Haftung 

Der Einsatz generativer KI in Redaktionen ist deshalb so riskant, weil sie streng genommen im Widerspruch zum Kern des Journalismus steht. Journalismus bedeutet Faktentreue und Genauigkeit; so definierte es der Ausschuss zu Qualitätsjournalismus des Europarats. Wer es pathetischer mag, spricht von Wahrheit. Große Sprachmodelle, wie sie der GenKI zugrunde liegen, berechnen aber lediglich Wahrscheinlichkeiten. Ihr Ziel ist es, sich den Fakten möglichst weit anzunähern und damit im Zweifel Wahrheit zu simulieren. Bestehen Lücken, halluzinieren sie. Einem Großteil der Nutzer ist dies mittlerweile bewusst. Dies bedeutet aber auch, dass Journalisten sämtliche Fakten überprüfen müssen, bevor sie bei mit KI ergänzten Texten oder Illustrationen auf den Sendeknopf drücken. Eine Recherche des britischen Mediendienstes Press Gazette beschreibt entsprechende Prozesse rund um ein neues Tool namens Gutenbot, mit dem die Verlagsgruppe Reach ihre Reichweite steigert. Dem Bericht zufolge ist der Produktionsdruck immens. Wer aber haftet bei Fehlern? Sind es die Hersteller der Tools, die Verlage, oder die Redakteure am Ende der Kette? Während zum Beispiel beim Einsatz selbstfahrender Autos Haftungsfragen im Kern der Debatte stehen, werden sie im Journalismus kaum thematisiert. Dies ist jedoch zwingend, sobald KI-Experimente für den täglichen Gebrauch skaliert werden. Die Glaubwürdigkeit ist das höchste Gut einer Medienmarke. Wer Gefahr läuft, sie zu ruinieren, sollte das Risiko kennen.

Zweitens: Es wird viel darüber gesprochen, was geht, aber wenig darüber, was das Publikum wirklich braucht 

Generative KI ermöglicht vieles, sekundenschnelle Übersetzungen in viele Sprachen gehören derzeit zu ihren stärksten funktionstüchtigen Features. Theoretisch könnte jedes Medienhaus seine Inhalte auf diese Weise im Rest der Welt verbreiten. Aber ist es wirklich das, worauf die Welt wartet? Tech-affine Journalisten und Manager sind schnell begeistert von neuen Tools und Formaten, doch manches davon lässt die Nutzer kalt. Man denke an komplizierte Multimedia-Produktionen, Nachrichten auf Abruf über smarte Lautsprecher, virtuelle Realität oder auch die simple Kommentarfunktion unter Onlinetexten. Der größte Teil der Journalismuskonsumenten zeigte kein Interesse daran (ebenso wie die sich ihrer Nutzer-Forschung gerne rühmenden Tech-Konzerne bislang weder smarte Brillen noch das Metaverse unter die Leute bringen konnten). Wie das Publikum reagiert, gehört bislang zu den großen Unbekannten in der KI-gestützten Medienwelt. Je bequemer zu nutzen, desto besser – das könnte eine Faustregel sein. Aber inmitten der Flut an (KI-fabrizierten) Inhalten und Deep Fakes könnte auch das Bedürfnis nach Wahrhaftigkeit wachsen. Der Journalismus muss erforschen, was seinen Adressaten wirklich nutzt.   

Drittens: Es wird viel über Anwendungen gesprochen aber wenig darüber, was die dahinterliegende Technologie für Klima, Umwelt und Arbeitnehmer bedeutet

Generative KI verbraucht ein Vielfaches der Energie, die eine Google-Suche benötigt. Der CO2-Fußabdruck ist Fachleuten zufolge geschätzt fünfmal so hoch. Hinzu kommt der Wasserverbrauch in den Serverparks jener Tech Konzerne, über die die gängigsten Modelle laufen. Eine Studie des Data and Society Research Institutes beschäftigt sich nicht nur mit den Umweltkosten von generativer KI sondern auch damit, unter welchen Bedingungen Menschen die entsprechenden Modelle trainieren oder für Rohstoff-Nachschub sorgen. In den Medienhäusern herrscht dazu Schweigen. Chefredakteure, die noch vor Kurzem beim Klimajournalismus nachlegen wollten, schwärmen nun von den Möglichkeiten der KI. Nachhaltigkeit war gestern. Das ist einer Branche unwürdig, die verspricht, die Öffentlichkeit über Zukunftsfragen aufzuklären. Hier gilt die alte Regel, man muss nicht alles machen, was man machen kann. 

Viertens: Viele Redaktionen arbeiten an ethischen Regeln für den Gebrauch von KI, aber wenige thematisieren, was außerhalb ihres Einflusses liegt 

Mittlerweile gibt es in fast allen großen Medienhäusern ethische Regeln für den Einsatz von KI. Der Bayerische Rundfunk gehörte zu den ersten in Deutschland, die solche publik gemacht hatten. Im Detail unterscheiden sich die Dokumente, aber allen ist gemeinsam, dass sie sich um eine Balance zwischen Experimentierfreude und Risikobegrenzung bemühen. Das ist lobenswert. Aber wie wirksam werden solche ethischen Gerüste sein, wenn Mitarbeiter Software-Pakete nutzen, deren Vorgaben sie weder einsehen können noch verstehen würden? In den meisten Organisationen ist die Abhängigkeit von Microsoft Teams schon jetzt gewaltig. Die gegenwärtigen Co-Pilot-Funktionen dürften sich täglich verbessern. Auf manchem mit dem Smartphone aufgenommenen Foto ist der Himmel schon lange blauer als in Wirklichkeit. Da können Redaktionen noch so sehr beschwören, Bilder nicht zu verfälschen. Die Abhängigkeit von wenigen Tech-Konzernen ist auch im Kleinen immens, nicht nur im Großen, wenn es um Geschäftsmodelle geht. Felix Simon hat dieses Spannungsverhältnis in einem Report für das Tow-Center an der Columbia Universität gut beschrieben. Nicht jedes Haus wird es sich leisten können, eigene Sprachmodelle zu bauen. Da helfen nur branchenübergreifende Kooperationen. Die Zukunft der Medien wird auch davon abhängen, wie gut eine solche Zusammenarbeit klappt.   

Fünftens: Redaktionen betonen die Bedeutung von Menschen am Ende der KI-Produktionskette, aber was ist mit dem Anfang? 

Das Thema Vielfalt ist in den Medienhäusern in den vergangenen Jahren viel diskutiert worden – und es fällt ihnen immer wieder vor die Füße. Bauern, die mit Traktoren die Auslieferungen von Zeitungen verhindern wollten, haben Chefredaktionen jüngst daran erinnert, dass Vielfalt nicht nur Gleichstellung der Geschlechter und ethnische Diversität bedeutet, sondern dass auch der Stadt-Land-Konflikt einiger Aufmerksamkeit bedarf. Wenn Redaktionen nicht gegensteuern, werden KI-getriebene Produkte Stereotype eher verstärken als brechen – oder sich beim Brechen vergreifen, so wie der kürzlich von Google zurückgezogene Bild-Generator, der zu viel Diversity abbildete. Auch Redaktionen, die den Grundsatz „Human in the loop“ beherzigen, werden es im Eifer des Gefechts schwer haben solche Fehlgriffe zu reparieren. Hinzu kommt, dass KI zunehmend ins Recruitment einziehen wird, zum Beispiel als Tool zum Sichten von Lebensläufen. Journalismus sollte die Gesellschaft abbilden, wie sie ist. Dieses Ziel muss stehen. Hoffentlich gibt es künftig ein paar KI-Tools, die dabei helfen. 

Ohnehin sollte KI im Journalismus Werkzeug bleiben und nicht zum Schöpfer werden. Um es mit A.G. Sulzbergers Worten aus dem zuvor zitierten Interview zu sagen: „Unser Vorteil ist, dass wir von Menschen geführte Unternehmen sind, in denen Journalisten von den besten Redakteuren unterstützt werden und die Redakteure von den höchsten Standards. Wir müssen dafür sorgen, dass diese Werkzeuge immer für uns arbeiten, und dass wir mit unseren Namen dahinterstehen, statt ihnen ein Eigenleben zu gewähren, wie wir das andere haben tun sehen.“ 

Auch jeder Hype hat ein Eigenleben. Umso wichtiger ist es zu definieren, was Journalismus in der KI-Zukunft leisten soll.  

Diese Kolumne erschien bei Medieninsider am 27. Februar 2024.