KI-Siegel im Journalismus? Wenn, dann richtig

Im Fall Sports Illustrated war die Sache eindeutig. Als durchsickerte, dass nicht hinter jedem Kolumnisten und Reporter des traditionsreichen amerikanischen Sportmagazins ein kluger Kopf sondern zuweilen nur ein Sprachmodell steckte, kostete das etliche Abos und am Ende auch CEO Ross Levinsohn seinen Job. Redaktionen, die Journalisten-Imitate aus künstlicher Intelligenz einsetzen, machen das also besser selbstbewusst mit eindeutigem Transparenz-Hinweis, wie dies zum Beispiel der Kölner Express mit seiner Avatar-Reporterin Klara Indernach (abgekürzt KI!) tut. Und selbst dann kann die Sache schief gehen. Der Radio-Sender Off Radio aus Krakau, der zunächst stolz verkündet hatte, seinen Hörern ein allein von KI gesteuertes Programm vorzusetzen, musste das Experiment nach kurzer Zeit abbrechen. Eine Avatar-Moderatorin hatte ein fiktives Interview mit der Literatur-Nobelpreisträgerin Wislawa Szymborska geführt und sie zu aktuellen Themen befragt – nur lebt die Autorin schon seit 2012 nicht mehr. Das Publikum war entsetzt.

Derzeit gilt Transparenz und eine offene Debatte darüber, ob, wann und in welchem Maße Redaktionen beim Erstellen von Inhalten KI einsetzen, in der Branche dennoch als eine Art Königsweg. In den meisten Ethik-Leitlinien zum redaktionellen Umgang mit KI dürfte sich dazu der eine oder andere Absatz finden. Die Furcht ist groß, durch unbedachten KI-Gebrauch die eigene Marke zu beschädigen und das vielerorts angeknackste Medienvertrauen weiter auszuhöhlen. Da schreibt man dann lieber mal dazu, dass diese oder jene Zusammenfassung oder Übersetzung von Sprachmodellen generiert wurde. Wie das bei den Lesern und Nutzern ankommt, ist allerdings noch kaum erforscht – und auch unter Branchen-Experten umstritten. Während die einen sich für Kennzeichnungen aussprechen, wie man sie von Nahrungsmitteln kennt, verweisen die anderen darauf, dass Label das Publikum erst recht misstrauisch stimmen könnten. Immerhin könnte der Hinweis „KI-unterstützt“ auch so interpretiert werden, dass sich die Redaktion aus der Verantwortung stehlen möchte.

Aus anderen Bereichen weiß man zudem: zu viel Transparenz kann Vertrauen ebenso schmälern wie zu wenig. Eine vollständige Liste aller Pannen und Kunstfehler, im Foyer eines Krankenhauses ausgehängt, würde Patienten vermutlich eher abschrecken als zuversichtlich stimmen. Gleiches gilt für Defekte an Flugzeugen oder Missgeschicke in Restaurantküchen. Wer überall einen Warnhinweis liest, ergreift entweder die Flucht oder schaut nicht mehr hin. Rachel Botsman, eine führende Expertin zum Thema, definiert Vertrauen als „eine selbstbewusste Beziehung zum Unbekannten“. Transparenz und Kontrolle stärkten Vertrauen nicht, sondern machten es weniger notwendig, weil sie das Unbekannte reduzierten, argumentiert sie.

Viel wichtiger für die Vertrauensbildung sind gute Erfahrungen mit der Marke oder Individuen, die sie repräsentieren. Dazu sollte eine Organisation offen darüber kommunizieren, welche Schritte sie unternimmt und welche Prozesse sie installiert hat, um Pannen zu verhindern. In Flugzeugen gehören dazu Redundanz von Technik, die doppelte Besetzung des Cockpits und feste Abläufe, in Redaktionen das Vier-Augen- und das Zwei-Quellen-Prinzip. Wenn Menschen einer Medienmarke vertrauen, gehen sie schlicht davon aus, dass dieses Haus alle Abläufe nach bestem Wissen und Gewissen strukturiert und regelmäßig überprüft. Wird KI als Sonderfall herausgestellt, könnte sich der Eindruck einschleichen, dass die Redaktion der Sache selbst nicht so richtig traut.

Felix Simon, Wissenschaftler am Reuters Institute in Oxford, hält deshalb allgemeine Transparenz-Regeln für ebenso wenig praxistauglich wie auch den Grundsatz, es müsse immer ein Mensch die Endkontrolle übernehmen. Es sei eine Fehlannahme, dass man allein mit diesen Maßnahmen das Vertrauen des Publikums zurückgewinnen könne, schreibt er in einem Essay.

Viele Journalisten machen sich zudem nicht bewusst, wie stark ihre eigene redaktionelle Berichterstattung über Künstliche Intelligenz das Verhältnis ihres Publikums dazu prägt. Wer in Interviews, Essays und Podcasts ständig liest und hört, was für einem Teufelszeug sich die Menschheit da ausliefert, wird der Technologie kaum aufgeschlossen gegenüberstehen, wenn die sonst so geschätzte Redaktion plötzlich überall KI-Hinweise anbringt. In Umfragen äußern sich Befragte deshalb erwartungsgemäß eher skeptisch, wenn sie zum Einsatz von KI im Journalismus um Auskunft gebeten werden.

Es gilt deshalb, die Kompetenz der eigenen Reporter zu stärken, damit sie das Thema KI vielschichtig angehen und konstruktiv begleiten, statt zwischen Hype und Weltuntergang zu mäandrieren. Auch die Vermenschlichung von KI – sei es über Avatar-Reporter oder nur in der Sprache (streng genommen ist schon Intelligenz ein unpassendes Wort) – trägt nicht gerade dazu bei, dem Publikum ein realistisches Bild davon zu vermitteln, was Sprach- und Rechenmodelle können und was eben nicht.   

 

Der Eindruck, den Menschen von KI haben, wird zudem stark davon geprägt werden, welche Erfahrungen sie selbst damit machen. Unter Studierenden gibt es wohl schon gegenwärtig kaum jemanden mehr, der nicht dann und wann Hilfsmittel wie ChatGPT nutzt. Auch wer von Berufs wegen programmiert, greift auf die blitzschnellen Rechenmodelle zurück, und für Büroarbeiter wird KI in zunehmendem Maße zum alltäglichen Werkzeug, ganz so wie Rechtschreibkontrolle, Excel Kalkulationen oder Spracheingabe. Allerdings wird es immer weniger offensichtlich werden, hinter welchen Tools welche KI steckt, da die Tech-Anbieter sie ins Leistungspaket stecken wie den Autofokus beim Fotografieren mit dem Smartphone. KI-Labels könnten deshalb schon bald wirken wie ein Relikt aus vergangener Zeit. 

Bei einer Konferenz, zu der das in Washington ansässige Center for News, Technology & Innovation jüngst nach Brüssel eingeladen hatte, schlug ein Teilnehmer vor, man sollte womöglich über eine Kennzeichnung von menschengemachtem Journalismus nachdenken. Was im ersten Moment nach einem Scherz klingt, hat tatsächlich einen ernsthaften Hintergrund. Die Branche muss sich zügig darüber klar werden, wie sich Journalismus in einer Welt der rasant skalierenden automatisierten Inhalte-Produktion seine Einzigartigkeit und Relevanz bewahrt. Sonst hat sie bald größere Probleme als die Frage, wie man KI-unterstützten Journalismus im Einzelfall kennzeichnen soll.               

Diese Kolumne erschien bei Medieninsider am 28. November 2024. Aktuelle Kolumnen von Alexandra dort lesen Sie mit einem Abo. 

„Deal or deal with it“ – Was im Rennen um Verträge mit KI-Anbietern wichtig ist

Die Anbieter so genannter Large-Language-Modelle bilden neue KI-Oligopole, die Publisher in ein neues und zugleich längst bekanntes Dilemma stürzen. Über eine neue Bedrohung der Medienvielfalt und drei Aspekte, was Publisher dagegen unternehmen können.

Wer sein Berufsleben bei angesehenen Medienmarken verbracht hat, dem geht der Begriff Qualitätsjournalismus meist locker von den Lippen. Man macht sich eher selten bewusst, dass andere das Wort als Instrument der Zensur betrachten könnten. Viele derjenigen, die dem Journalistenberuf in eher repressiven politischen Umgebungen nachgehen, haben aber genau das schon erlebt: Ihnen wurden der Zugang verwehrt oder Informationen vorenthalten, weil Regierungen das Prädikat „Qualitätspresse“ auf diejenigen beschränkten, von denen sie sich geringen Gegenwind versprachen. Vor ein paar Jahren wäre der Experten-Ausschuss Qualitätsjournalismus im Europarat deshalb fast bei der Diskussion des Titels steckengeblieben. 

Deals mit OpenAI: Im Vordergrund geht es um Verlässlichkeit, im Hintergrund um Einnahmen

An diese Auseinandersetzung erinnert man sich, wenn nun ein Medienunternehmen nach dem anderen „Deals“ mit OpenAI, Microsoft oder anderen KI-Großanbietern abschließt. Auch hier geht es nämlich um „Qualitätsmedien“, nur haben die Definitionsmacht in diesem Fall kapitalstarke Unternehmen der Tech-Branche. Associated Press, Axel Springer (Politico, Insider, Bild, Welt), Financial Times, Le Monde, La Prisa, Newscorp (Wall Street Journal, New York Post) – alle haben bereits verschiedenste Vereinbarungen mit den Tech-Oligopolisten abgeschlossen. Vordergründig geben sie an, ihren Journalismus zur Verfügung zu stellen, um auf diese Weise die Verlässlichkeit der Sprachmodelle (Large Language Models, abgekürzt LLM) zu sichern. Im Hintergrund kämpfen sie um Einnahmen, um die künftige Sichtbarkeit ihrer Medien-Marken in KI-basierten Suchmaschinen – und damit ums Überleben ihrer Geschäftsmodelle. 

Andere wie die New York Times und sechs Regionalzeitungsmarken des US-Investors Alden Global Capital haben Open AI verklagt. Auch wenn sie argumentieren, es gehe ihnen um das Wohlergehen der amerikanischen Gesellschaft, wollen sie damit wohl vor allem den Preis nach oben treiben und sich Schadenersatzklagen vom Leib halten. Die stehen zu befürchten, sollten KI-Tools Medieninhalte mit unseriösen Quellen vermixen und daraufhin unter renommierten Marken Fehler verbreiten. Hier ist die Strategie umgekehrt: Qualität wird vorenthalten und als Druckmittel benutzt. 

Das alles ist legitim, aber wo bleibt der große und vielfältige Rest? Für wenige Auserwählte hieße die Entscheidung, „Deal or no deal“, schreibt Pete Brown in einer neuen Analyse in der Columbia Journalism Review, in der er die wenigen bekannten Daten zu den Geschäftsabschlüssen und ihre Bedeutung analysiert. Für diejenigen, die nicht an den Tisch geladen werden, heiße es eher: „deal with it“. Nach welchen Kriterien die Tech-Anbieter ihre Verhandlungspartner auswählen, welche Optionen jeweils im Gespräch sind, und um welche Volumina es geht, kann man nur erraten. Neben Marktanalysen dürfte Lobbying eine Rolle spielen und eben das, was Marken an „Qualität“ zu bieten haben. Die Monopolisten entscheiden nach Gutsherrenart. 

Jeder kämpft für sich – und stürzt alle in Abhängigkeiten

An für die sie weniger interessante Journalismus-Produzenten oder ihnen nahestehende Institutionen händigen sie als Trostpreis Förderprogramme aus, wie Medienhäuser dies schon von der Google News Initiative und dem Facebook Journalism Projekt kennen. Aber ein systematisches Herangehen ist weder von Seiten der Tech-Anbieter noch der Medienbranche erkennbar. Dort kämpft – bis auf Ausnahmen – fast jeder für sich allein. Damit verstricken sich die Medienhäuser immer weiter in das Netz von Abhängigkeiten, das Big Tech seit Beginn der Plattform-Ökonomie gesponnen hat. Nicht wenigen dürfte dabei die Luft ausgehen.

Die Bedrohung wirkt dieses Mal noch erdrückender als in den vorherigen Wellen der Digitalisierung, wo sich Medienhäuser immerhin Reichweite erhofften, weil ihre Marken in Suchergebnissen oder den sozialen Netzwerken auftauchten. Ob sich Nutzer mittelfristig noch über die beiden großen Loyalitätstreiber Apps und Webseiten binden lassen, wenn sich Wissens- und Informationshunger bequem durch Dialogformate stillen lassen, ist fraglich. Die Telekom hatte auf dem Mobile World Congress 2024 als erster Anbieter weltweit die Studie eines Smartphones ohne Apps präsentiert, bei dem ein KI-Assistent die Such-Arbeit übernimmt (sprachlich lässt man es gerne menscheln). 

Einige Experten vermuten allerdings, dass die Branche jetzt mehr Verhandlungsmacht hat. Das liegt daran, dass KI-getriebene Sprachmodelle viele Fehler machen, wenn sie nicht ständig mit frischen Fakten gefüttert werden – was in der Natur der Sache steckt. Schließlich kalkulieren sie nur Wahrscheinlichkeiten und brauchen Informationen zum Abgleich dessen, was richtig und falsch ist. In der Fachsprache heißt das retrieval-augmented generation (RAG). Mike Cook vom King’s College in London vergleicht diesen Prozess in einer Analyse für The Conversation mit einem Examen bei geöffnetem Lehrbuch. Auf einen Prompt hin kalkuliert das Modell die wahrscheinliche Antwort und gleicht sie mit Faktenwissen von verlässlichen Quellen ab. Verlässliche Informationen werden umso wichtiger, je mehr KI-generierte Inhalte das Internet zumüllen. Anbieter wie OpenAI fürchten deshalb juristische Auseinandersetzungen und Regulierung. Man kann sich allerdings vorstellen, dass die Anzahl der für diesen Abgleich nötigen „Lehrbücher“ begrenzt ist.

Drei Aspekte, die nun für Publisher wichtig werden

Für die Branche sind aus all diesen Gründen drei Dinge besonders wichtig. 

Erstens: Medienunternehmen müssen noch mehr als bislang alles daransetzen, direkte Beziehungen zu ihren Nutzern aufzubauen. Dies gilt besonders für Marken mit geringerer Reichweite, die eine geographische oder thematische Nische bedienen. Die Digitalisierung hat die Gründung neuer, rein digitaler Medienunternehmen ermöglicht und damit die Medienvielfalt gestärkt. Im Zeitalter der LLM werden es aber jene schwer haben, die auf rein transaktionale Beziehungen setzen. Nutzer werden nicht mehr für Inhalte bezahlen, die ihnen jeder Prompt liefern kann, sondern nur noch Geld ausgeben, wenn sie eine hohe emotionale Affinität zum Produkt, zum Team oder zur Marke haben. Daran gilt es zu arbeiten. Unternehmen, die auf Mitgliedschaften setzen, dürften einen Vorteil haben.

Zweitens: Alle Medienunternehmen sollten an ihren Qualitätsstandards arbeiten, wie sie zum Beispiel im Zertifizierungsprozess der Journalism Trust Initiative festgeschrieben sind. Regulierer könnten Tech-Anbietern wie OpenAI und Co. auferlegen, solche – einigermaßen objektiven – Gütekriterien zu nutzen, wenn sie künftig über Partnerschaften oder „Deals“ entscheiden. Auf diese Weise käme mehr Transparenz in den Verhandlungsprozess, Qualität wäre überprüfbar und nicht mehr über Bauchgefühl oder die lautesten Lobbyisten definiert. Renommierte Marken würden sich womöglich über ein mehr an Bürokratie ärgern, aber dafür hätte man die Wettbewerbsbedingungen etwas angeglichen. 

Drittens: Medienhäuser sollten sollten sich zusammenschließen und gemeinsam mit den KI-Herstellern verhandeln. Jeff Jarvis, emeritierter Journalismus Professor an der CUNY, schlägt vor, dass sich die Branche auf eine gemeinsame Schnittstelle – ein „News API“ – einigt, was den Lizensierungsprozess für das oben beschriebene Abgleichverfahren vereinfachen könnte. Dies könnte unter Federführung der Nachrichtenagenturen und Verbändengeschehen, sagte Jarvis in einem Interview für den EBU News Report Trusted News in the Age of Generative AI, der Mitte Juni erscheint (Alexandra ist Lead-Autorin des Reports). Ansätze für ein gemeinsames Vorgehen gibt es in Skandinavien, wo Verlage zum Beispiel in Norwegen an einem gemeinsamen Sprachmodell arbeiten oder sich wie in Schweden auf Standards zum Umgang mit KI geeinigt haben. 

Dass ein einheitliches Vorgehen gelingen könnte, daran glaubt derzeit zwar niemand in der Branche. Dazu gibt es zu viele Risse zwischen kommerziellen und öffentlich-rechtlichen Anbietern, zwischen digitalen Vorreitern und Hinterbänklern, zwischen Konkurrenten mit Blick auf Regionen und Fachgebiete und – nicht zu vergessen – zwischen der Medienbranche und der Tech-Industrie. Aber Veränderung gelingt bekanntlich, wenn der Druck hoch genug ist. Das könnte schon bald der Fall sein. An einer „data apocalypse“ (Mike Cook) kann niemandem gelegen sein. 

Dieser Text erschien am 30. Mai 2024 bei Medieninsider. Aktuelle Kolumnen lassen sich mit einem Abo lesen.