„Deal or deal with it“ – Was im Rennen um Verträge mit KI-Anbietern wichtig ist

Die Anbieter so genannter Large-Language-Modelle bilden neue KI-Oligopole, die Publisher in ein neues und zugleich längst bekanntes Dilemma stürzen. Über eine neue Bedrohung der Medienvielfalt und drei Aspekte, was Publisher dagegen unternehmen können.

Wer sein Berufsleben bei angesehenen Medienmarken verbracht hat, dem geht der Begriff Qualitätsjournalismus meist locker von den Lippen. Man macht sich eher selten bewusst, dass andere das Wort als Instrument der Zensur betrachten könnten. Viele derjenigen, die dem Journalistenberuf in eher repressiven politischen Umgebungen nachgehen, haben aber genau das schon erlebt: Ihnen wurden der Zugang verwehrt oder Informationen vorenthalten, weil Regierungen das Prädikat „Qualitätspresse“ auf diejenigen beschränkten, von denen sie sich geringen Gegenwind versprachen. Vor ein paar Jahren wäre der Experten-Ausschuss Qualitätsjournalismus im Europarat deshalb fast bei der Diskussion des Titels steckengeblieben. 

Deals mit OpenAI: Im Vordergrund geht es um Verlässlichkeit, im Hintergrund um Einnahmen

An diese Auseinandersetzung erinnert man sich, wenn nun ein Medienunternehmen nach dem anderen „Deals“ mit OpenAI, Microsoft oder anderen KI-Großanbietern abschließt. Auch hier geht es nämlich um „Qualitätsmedien“, nur haben die Definitionsmacht in diesem Fall kapitalstarke Unternehmen der Tech-Branche. Associated Press, Axel Springer (Politico, Insider, Bild, Welt), Financial Times, Le Monde, La Prisa, Newscorp (Wall Street Journal, New York Post) – alle haben bereits verschiedenste Vereinbarungen mit den Tech-Oligopolisten abgeschlossen. Vordergründig geben sie an, ihren Journalismus zur Verfügung zu stellen, um auf diese Weise die Verlässlichkeit der Sprachmodelle (Large Language Models, abgekürzt LLM) zu sichern. Im Hintergrund kämpfen sie um Einnahmen, um die künftige Sichtbarkeit ihrer Medien-Marken in KI-basierten Suchmaschinen – und damit ums Überleben ihrer Geschäftsmodelle. 

Andere wie die New York Times und sechs Regionalzeitungsmarken des US-Investors Alden Global Capital haben Open AI verklagt. Auch wenn sie argumentieren, es gehe ihnen um das Wohlergehen der amerikanischen Gesellschaft, wollen sie damit wohl vor allem den Preis nach oben treiben und sich Schadenersatzklagen vom Leib halten. Die stehen zu befürchten, sollten KI-Tools Medieninhalte mit unseriösen Quellen vermixen und daraufhin unter renommierten Marken Fehler verbreiten. Hier ist die Strategie umgekehrt: Qualität wird vorenthalten und als Druckmittel benutzt. 

Das alles ist legitim, aber wo bleibt der große und vielfältige Rest? Für wenige Auserwählte hieße die Entscheidung, „Deal or no deal“, schreibt Pete Brown in einer neuen Analyse in der Columbia Journalism Review, in der er die wenigen bekannten Daten zu den Geschäftsabschlüssen und ihre Bedeutung analysiert. Für diejenigen, die nicht an den Tisch geladen werden, heiße es eher: „deal with it“. Nach welchen Kriterien die Tech-Anbieter ihre Verhandlungspartner auswählen, welche Optionen jeweils im Gespräch sind, und um welche Volumina es geht, kann man nur erraten. Neben Marktanalysen dürfte Lobbying eine Rolle spielen und eben das, was Marken an „Qualität“ zu bieten haben. Die Monopolisten entscheiden nach Gutsherrenart. 

Jeder kämpft für sich – und stürzt alle in Abhängigkeiten

An für die sie weniger interessante Journalismus-Produzenten oder ihnen nahestehende Institutionen händigen sie als Trostpreis Förderprogramme aus, wie Medienhäuser dies schon von der Google News Initiative und dem Facebook Journalism Projekt kennen. Aber ein systematisches Herangehen ist weder von Seiten der Tech-Anbieter noch der Medienbranche erkennbar. Dort kämpft – bis auf Ausnahmen – fast jeder für sich allein. Damit verstricken sich die Medienhäuser immer weiter in das Netz von Abhängigkeiten, das Big Tech seit Beginn der Plattform-Ökonomie gesponnen hat. Nicht wenigen dürfte dabei die Luft ausgehen.

Die Bedrohung wirkt dieses Mal noch erdrückender als in den vorherigen Wellen der Digitalisierung, wo sich Medienhäuser immerhin Reichweite erhofften, weil ihre Marken in Suchergebnissen oder den sozialen Netzwerken auftauchten. Ob sich Nutzer mittelfristig noch über die beiden großen Loyalitätstreiber Apps und Webseiten binden lassen, wenn sich Wissens- und Informationshunger bequem durch Dialogformate stillen lassen, ist fraglich. Die Telekom hatte auf dem Mobile World Congress 2024 als erster Anbieter weltweit die Studie eines Smartphones ohne Apps präsentiert, bei dem ein KI-Assistent die Such-Arbeit übernimmt (sprachlich lässt man es gerne menscheln). 

Einige Experten vermuten allerdings, dass die Branche jetzt mehr Verhandlungsmacht hat. Das liegt daran, dass KI-getriebene Sprachmodelle viele Fehler machen, wenn sie nicht ständig mit frischen Fakten gefüttert werden – was in der Natur der Sache steckt. Schließlich kalkulieren sie nur Wahrscheinlichkeiten und brauchen Informationen zum Abgleich dessen, was richtig und falsch ist. In der Fachsprache heißt das retrieval-augmented generation (RAG). Mike Cook vom King’s College in London vergleicht diesen Prozess in einer Analyse für The Conversation mit einem Examen bei geöffnetem Lehrbuch. Auf einen Prompt hin kalkuliert das Modell die wahrscheinliche Antwort und gleicht sie mit Faktenwissen von verlässlichen Quellen ab. Verlässliche Informationen werden umso wichtiger, je mehr KI-generierte Inhalte das Internet zumüllen. Anbieter wie OpenAI fürchten deshalb juristische Auseinandersetzungen und Regulierung. Man kann sich allerdings vorstellen, dass die Anzahl der für diesen Abgleich nötigen „Lehrbücher“ begrenzt ist.

Drei Aspekte, die nun für Publisher wichtig werden

Für die Branche sind aus all diesen Gründen drei Dinge besonders wichtig. 

Erstens: Medienunternehmen müssen noch mehr als bislang alles daransetzen, direkte Beziehungen zu ihren Nutzern aufzubauen. Dies gilt besonders für Marken mit geringerer Reichweite, die eine geographische oder thematische Nische bedienen. Die Digitalisierung hat die Gründung neuer, rein digitaler Medienunternehmen ermöglicht und damit die Medienvielfalt gestärkt. Im Zeitalter der LLM werden es aber jene schwer haben, die auf rein transaktionale Beziehungen setzen. Nutzer werden nicht mehr für Inhalte bezahlen, die ihnen jeder Prompt liefern kann, sondern nur noch Geld ausgeben, wenn sie eine hohe emotionale Affinität zum Produkt, zum Team oder zur Marke haben. Daran gilt es zu arbeiten. Unternehmen, die auf Mitgliedschaften setzen, dürften einen Vorteil haben.

Zweitens: Alle Medienunternehmen sollten an ihren Qualitätsstandards arbeiten, wie sie zum Beispiel im Zertifizierungsprozess der Journalism Trust Initiative festgeschrieben sind. Regulierer könnten Tech-Anbietern wie OpenAI und Co. auferlegen, solche – einigermaßen objektiven – Gütekriterien zu nutzen, wenn sie künftig über Partnerschaften oder „Deals“ entscheiden. Auf diese Weise käme mehr Transparenz in den Verhandlungsprozess, Qualität wäre überprüfbar und nicht mehr über Bauchgefühl oder die lautesten Lobbyisten definiert. Renommierte Marken würden sich womöglich über ein mehr an Bürokratie ärgern, aber dafür hätte man die Wettbewerbsbedingungen etwas angeglichen. 

Drittens: Medienhäuser sollten sollten sich zusammenschließen und gemeinsam mit den KI-Herstellern verhandeln. Jeff Jarvis, emeritierter Journalismus Professor an der CUNY, schlägt vor, dass sich die Branche auf eine gemeinsame Schnittstelle – ein „News API“ – einigt, was den Lizensierungsprozess für das oben beschriebene Abgleichverfahren vereinfachen könnte. Dies könnte unter Federführung der Nachrichtenagenturen und Verbändengeschehen, sagte Jarvis in einem Interview für den EBU News Report Trusted News in the Age of Generative AI, der Mitte Juni erscheint (Alexandra ist Lead-Autorin des Reports). Ansätze für ein gemeinsames Vorgehen gibt es in Skandinavien, wo Verlage zum Beispiel in Norwegen an einem gemeinsamen Sprachmodell arbeiten oder sich wie in Schweden auf Standards zum Umgang mit KI geeinigt haben. 

Dass ein einheitliches Vorgehen gelingen könnte, daran glaubt derzeit zwar niemand in der Branche. Dazu gibt es zu viele Risse zwischen kommerziellen und öffentlich-rechtlichen Anbietern, zwischen digitalen Vorreitern und Hinterbänklern, zwischen Konkurrenten mit Blick auf Regionen und Fachgebiete und – nicht zu vergessen – zwischen der Medienbranche und der Tech-Industrie. Aber Veränderung gelingt bekanntlich, wenn der Druck hoch genug ist. Das könnte schon bald der Fall sein. An einer „data apocalypse“ (Mike Cook) kann niemandem gelegen sein. 

Dieser Text erschien am 30. Mai 2024 bei Medieninsider. Aktuelle Kolumnen lassen sich mit einem Abo lesen. 

Die Black Box der KI-Debatte: Worüber Medienmacher lieber schweigen

Es gibt dieser Tage zwei Sorten von Medienmachern: diejenigen, die sich tagein, tagaus mit künstlicher Intelligenz beschäftigen und diejenigen, die das nicht tun. Zuweilen entsteht der Eindruck, dass die erste Gruppe vor Begeisterung kaum noch wahrnimmt, dass es die zweite überhaupt gibt. Es ist ein bisschen wie in den frühen Tagen des Online-Journalismus: Die einen vernetzen sich mit Gleichgesinnten, kommentieren dieselben Studien, treffen sich auf den immer gleichen Konferenzen, vergleichen ihre Tools. Die anderen versuchen, einfach ihren Job zu machen. Wie damals scheint in der Branche eine Art Bekenntniszwang zu herrschen: Entweder man schwärmt von den Möglichkeiten der KI, oder man recherchiert, wann sie denn nun die Menschheit auslöschen wird. Viele andere halten aber lieber die Klappe. Sie sorgen sich, als Innovationsfeinde zu gelten.    

Dabei wäre gerade jetzt, wo die ersten KI-Tools ausgerollt werden, eine breite und vielschichtige Debatte wichtig. Denn es geht um praktisch alles: jeden einzelnen Job, den Wert der jeweiligen Marke, die Zukunft von Geschäftsmodellen, das Vertrauen in den Journalismus als Ganzen. Der Launch von ChatGPT im November 2022 hat ein Tor aufgemacht, hinter dem sich verschiedene Wege auftun. Jene first mover, die das Thema vorantreiben, sind gut beraten, jene außerhalb ihrer Bubble um kritische Fragen zu bitten – so, wie es der Herausgeber der New York Times, A.G. Sulzberger, in einem kürzlich veröffentlichten Interview empfiehlt: „Ich habe die Erkenntnis gewonnen, dass der Weg voran in jeglicher Phase gigantischer Transformation ist, Fragen zu stellen, die Antworten mit Skepsis zu betrachten und an keine Wunderwaffen zu glauben.“

Eine Kolumne kann das Für und Wider des Einsatzes generativer KI im Journalismus nicht erschöpfend behandeln. Aus der Fülle der Szenarien und Argumente sollen hier deshalb nur ein paar Themen angerissen werden, über die derzeit selten oder gar nicht gesprochen wird. Es geht sozusagen um die Black Box der Debatte.

Erstens: Alle reden über gefährdete Jobs, kaum jemand über Verantwortung und Haftung 

Der Einsatz generativer KI in Redaktionen ist deshalb so riskant, weil sie streng genommen im Widerspruch zum Kern des Journalismus steht. Journalismus bedeutet Faktentreue und Genauigkeit; so definierte es der Ausschuss zu Qualitätsjournalismus des Europarats. Wer es pathetischer mag, spricht von Wahrheit. Große Sprachmodelle, wie sie der GenKI zugrunde liegen, berechnen aber lediglich Wahrscheinlichkeiten. Ihr Ziel ist es, sich den Fakten möglichst weit anzunähern und damit im Zweifel Wahrheit zu simulieren. Bestehen Lücken, halluzinieren sie. Einem Großteil der Nutzer ist dies mittlerweile bewusst. Dies bedeutet aber auch, dass Journalisten sämtliche Fakten überprüfen müssen, bevor sie bei mit KI ergänzten Texten oder Illustrationen auf den Sendeknopf drücken. Eine Recherche des britischen Mediendienstes Press Gazette beschreibt entsprechende Prozesse rund um ein neues Tool namens Gutenbot, mit dem die Verlagsgruppe Reach ihre Reichweite steigert. Dem Bericht zufolge ist der Produktionsdruck immens. Wer aber haftet bei Fehlern? Sind es die Hersteller der Tools, die Verlage, oder die Redakteure am Ende der Kette? Während zum Beispiel beim Einsatz selbstfahrender Autos Haftungsfragen im Kern der Debatte stehen, werden sie im Journalismus kaum thematisiert. Dies ist jedoch zwingend, sobald KI-Experimente für den täglichen Gebrauch skaliert werden. Die Glaubwürdigkeit ist das höchste Gut einer Medienmarke. Wer Gefahr läuft, sie zu ruinieren, sollte das Risiko kennen.

Zweitens: Es wird viel darüber gesprochen, was geht, aber wenig darüber, was das Publikum wirklich braucht 

Generative KI ermöglicht vieles, sekundenschnelle Übersetzungen in viele Sprachen gehören derzeit zu ihren stärksten funktionstüchtigen Features. Theoretisch könnte jedes Medienhaus seine Inhalte auf diese Weise im Rest der Welt verbreiten. Aber ist es wirklich das, worauf die Welt wartet? Tech-affine Journalisten und Manager sind schnell begeistert von neuen Tools und Formaten, doch manches davon lässt die Nutzer kalt. Man denke an komplizierte Multimedia-Produktionen, Nachrichten auf Abruf über smarte Lautsprecher, virtuelle Realität oder auch die simple Kommentarfunktion unter Onlinetexten. Der größte Teil der Journalismuskonsumenten zeigte kein Interesse daran (ebenso wie die sich ihrer Nutzer-Forschung gerne rühmenden Tech-Konzerne bislang weder smarte Brillen noch das Metaverse unter die Leute bringen konnten). Wie das Publikum reagiert, gehört bislang zu den großen Unbekannten in der KI-gestützten Medienwelt. Je bequemer zu nutzen, desto besser – das könnte eine Faustregel sein. Aber inmitten der Flut an (KI-fabrizierten) Inhalten und Deep Fakes könnte auch das Bedürfnis nach Wahrhaftigkeit wachsen. Der Journalismus muss erforschen, was seinen Adressaten wirklich nutzt.   

Drittens: Es wird viel über Anwendungen gesprochen aber wenig darüber, was die dahinterliegende Technologie für Klima, Umwelt und Arbeitnehmer bedeutet

Generative KI verbraucht ein Vielfaches der Energie, die eine Google-Suche benötigt. Der CO2-Fußabdruck ist Fachleuten zufolge geschätzt fünfmal so hoch. Hinzu kommt der Wasserverbrauch in den Serverparks jener Tech Konzerne, über die die gängigsten Modelle laufen. Eine Studie des Data and Society Research Institutes beschäftigt sich nicht nur mit den Umweltkosten von generativer KI sondern auch damit, unter welchen Bedingungen Menschen die entsprechenden Modelle trainieren oder für Rohstoff-Nachschub sorgen. In den Medienhäusern herrscht dazu Schweigen. Chefredakteure, die noch vor Kurzem beim Klimajournalismus nachlegen wollten, schwärmen nun von den Möglichkeiten der KI. Nachhaltigkeit war gestern. Das ist einer Branche unwürdig, die verspricht, die Öffentlichkeit über Zukunftsfragen aufzuklären. Hier gilt die alte Regel, man muss nicht alles machen, was man machen kann. 

Viertens: Viele Redaktionen arbeiten an ethischen Regeln für den Gebrauch von KI, aber wenige thematisieren, was außerhalb ihres Einflusses liegt 

Mittlerweile gibt es in fast allen großen Medienhäusern ethische Regeln für den Einsatz von KI. Der Bayerische Rundfunk gehörte zu den ersten in Deutschland, die solche publik gemacht hatten. Im Detail unterscheiden sich die Dokumente, aber allen ist gemeinsam, dass sie sich um eine Balance zwischen Experimentierfreude und Risikobegrenzung bemühen. Das ist lobenswert. Aber wie wirksam werden solche ethischen Gerüste sein, wenn Mitarbeiter Software-Pakete nutzen, deren Vorgaben sie weder einsehen können noch verstehen würden? In den meisten Organisationen ist die Abhängigkeit von Microsoft Teams schon jetzt gewaltig. Die gegenwärtigen Co-Pilot-Funktionen dürften sich täglich verbessern. Auf manchem mit dem Smartphone aufgenommenen Foto ist der Himmel schon lange blauer als in Wirklichkeit. Da können Redaktionen noch so sehr beschwören, Bilder nicht zu verfälschen. Die Abhängigkeit von wenigen Tech-Konzernen ist auch im Kleinen immens, nicht nur im Großen, wenn es um Geschäftsmodelle geht. Felix Simon hat dieses Spannungsverhältnis in einem Report für das Tow-Center an der Columbia Universität gut beschrieben. Nicht jedes Haus wird es sich leisten können, eigene Sprachmodelle zu bauen. Da helfen nur branchenübergreifende Kooperationen. Die Zukunft der Medien wird auch davon abhängen, wie gut eine solche Zusammenarbeit klappt.   

Fünftens: Redaktionen betonen die Bedeutung von Menschen am Ende der KI-Produktionskette, aber was ist mit dem Anfang? 

Das Thema Vielfalt ist in den Medienhäusern in den vergangenen Jahren viel diskutiert worden – und es fällt ihnen immer wieder vor die Füße. Bauern, die mit Traktoren die Auslieferungen von Zeitungen verhindern wollten, haben Chefredaktionen jüngst daran erinnert, dass Vielfalt nicht nur Gleichstellung der Geschlechter und ethnische Diversität bedeutet, sondern dass auch der Stadt-Land-Konflikt einiger Aufmerksamkeit bedarf. Wenn Redaktionen nicht gegensteuern, werden KI-getriebene Produkte Stereotype eher verstärken als brechen – oder sich beim Brechen vergreifen, so wie der kürzlich von Google zurückgezogene Bild-Generator, der zu viel Diversity abbildete. Auch Redaktionen, die den Grundsatz „Human in the loop“ beherzigen, werden es im Eifer des Gefechts schwer haben solche Fehlgriffe zu reparieren. Hinzu kommt, dass KI zunehmend ins Recruitment einziehen wird, zum Beispiel als Tool zum Sichten von Lebensläufen. Journalismus sollte die Gesellschaft abbilden, wie sie ist. Dieses Ziel muss stehen. Hoffentlich gibt es künftig ein paar KI-Tools, die dabei helfen. 

Ohnehin sollte KI im Journalismus Werkzeug bleiben und nicht zum Schöpfer werden. Um es mit A.G. Sulzbergers Worten aus dem zuvor zitierten Interview zu sagen: „Unser Vorteil ist, dass wir von Menschen geführte Unternehmen sind, in denen Journalisten von den besten Redakteuren unterstützt werden und die Redakteure von den höchsten Standards. Wir müssen dafür sorgen, dass diese Werkzeuge immer für uns arbeiten, und dass wir mit unseren Namen dahinterstehen, statt ihnen ein Eigenleben zu gewähren, wie wir das andere haben tun sehen.“ 

Auch jeder Hype hat ein Eigenleben. Umso wichtiger ist es zu definieren, was Journalismus in der KI-Zukunft leisten soll.  

Diese Kolumne erschien bei Medieninsider am 27. Februar 2024.