KI-Siegel im Journalismus? Wenn, dann richtig

Im Fall Sports Illustrated war die Sache eindeutig. Als durchsickerte, dass nicht hinter jedem Kolumnisten und Reporter des traditionsreichen amerikanischen Sportmagazins ein kluger Kopf sondern zuweilen nur ein Sprachmodell steckte, kostete das etliche Abos und am Ende auch CEO Ross Levinsohn seinen Job. Redaktionen, die Journalisten-Imitate aus künstlicher Intelligenz einsetzen, machen das also besser selbstbewusst mit eindeutigem Transparenz-Hinweis, wie dies zum Beispiel der Kölner Express mit seiner Avatar-Reporterin Klara Indernach (abgekürzt KI!) tut. Und selbst dann kann die Sache schief gehen. Der Radio-Sender Off Radio aus Krakau, der zunächst stolz verkündet hatte, seinen Hörern ein allein von KI gesteuertes Programm vorzusetzen, musste das Experiment nach kurzer Zeit abbrechen. Eine Avatar-Moderatorin hatte ein fiktives Interview mit der Literatur-Nobelpreisträgerin Wislawa Szymborska geführt und sie zu aktuellen Themen befragt – nur lebt die Autorin schon seit 2012 nicht mehr. Das Publikum war entsetzt.

Derzeit gilt Transparenz und eine offene Debatte darüber, ob, wann und in welchem Maße Redaktionen beim Erstellen von Inhalten KI einsetzen, in der Branche dennoch als eine Art Königsweg. In den meisten Ethik-Leitlinien zum redaktionellen Umgang mit KI dürfte sich dazu der eine oder andere Absatz finden. Die Furcht ist groß, durch unbedachten KI-Gebrauch die eigene Marke zu beschädigen und das vielerorts angeknackste Medienvertrauen weiter auszuhöhlen. Da schreibt man dann lieber mal dazu, dass diese oder jene Zusammenfassung oder Übersetzung von Sprachmodellen generiert wurde. Wie das bei den Lesern und Nutzern ankommt, ist allerdings noch kaum erforscht – und auch unter Branchen-Experten umstritten. Während die einen sich für Kennzeichnungen aussprechen, wie man sie von Nahrungsmitteln kennt, verweisen die anderen darauf, dass Label das Publikum erst recht misstrauisch stimmen könnten. Immerhin könnte der Hinweis „KI-unterstützt“ auch so interpretiert werden, dass sich die Redaktion aus der Verantwortung stehlen möchte.

Aus anderen Bereichen weiß man zudem: zu viel Transparenz kann Vertrauen ebenso schmälern wie zu wenig. Eine vollständige Liste aller Pannen und Kunstfehler, im Foyer eines Krankenhauses ausgehängt, würde Patienten vermutlich eher abschrecken als zuversichtlich stimmen. Gleiches gilt für Defekte an Flugzeugen oder Missgeschicke in Restaurantküchen. Wer überall einen Warnhinweis liest, ergreift entweder die Flucht oder schaut nicht mehr hin. Rachel Botsman, eine führende Expertin zum Thema, definiert Vertrauen als „eine selbstbewusste Beziehung zum Unbekannten“. Transparenz und Kontrolle stärkten Vertrauen nicht, sondern machten es weniger notwendig, weil sie das Unbekannte reduzierten, argumentiert sie.

Viel wichtiger für die Vertrauensbildung sind gute Erfahrungen mit der Marke oder Individuen, die sie repräsentieren. Dazu sollte eine Organisation offen darüber kommunizieren, welche Schritte sie unternimmt und welche Prozesse sie installiert hat, um Pannen zu verhindern. In Flugzeugen gehören dazu Redundanz von Technik, die doppelte Besetzung des Cockpits und feste Abläufe, in Redaktionen das Vier-Augen- und das Zwei-Quellen-Prinzip. Wenn Menschen einer Medienmarke vertrauen, gehen sie schlicht davon aus, dass dieses Haus alle Abläufe nach bestem Wissen und Gewissen strukturiert und regelmäßig überprüft. Wird KI als Sonderfall herausgestellt, könnte sich der Eindruck einschleichen, dass die Redaktion der Sache selbst nicht so richtig traut.

Felix Simon, Wissenschaftler am Reuters Institute in Oxford, hält deshalb allgemeine Transparenz-Regeln für ebenso wenig praxistauglich wie auch den Grundsatz, es müsse immer ein Mensch die Endkontrolle übernehmen. Es sei eine Fehlannahme, dass man allein mit diesen Maßnahmen das Vertrauen des Publikums zurückgewinnen könne, schreibt er in einem Essay.

Viele Journalisten machen sich zudem nicht bewusst, wie stark ihre eigene redaktionelle Berichterstattung über Künstliche Intelligenz das Verhältnis ihres Publikums dazu prägt. Wer in Interviews, Essays und Podcasts ständig liest und hört, was für einem Teufelszeug sich die Menschheit da ausliefert, wird der Technologie kaum aufgeschlossen gegenüberstehen, wenn die sonst so geschätzte Redaktion plötzlich überall KI-Hinweise anbringt. In Umfragen äußern sich Befragte deshalb erwartungsgemäß eher skeptisch, wenn sie zum Einsatz von KI im Journalismus um Auskunft gebeten werden.

Es gilt deshalb, die Kompetenz der eigenen Reporter zu stärken, damit sie das Thema KI vielschichtig angehen und konstruktiv begleiten, statt zwischen Hype und Weltuntergang zu mäandrieren. Auch die Vermenschlichung von KI – sei es über Avatar-Reporter oder nur in der Sprache (streng genommen ist schon Intelligenz ein unpassendes Wort) – trägt nicht gerade dazu bei, dem Publikum ein realistisches Bild davon zu vermitteln, was Sprach- und Rechenmodelle können und was eben nicht.   

 

Der Eindruck, den Menschen von KI haben, wird zudem stark davon geprägt werden, welche Erfahrungen sie selbst damit machen. Unter Studierenden gibt es wohl schon gegenwärtig kaum jemanden mehr, der nicht dann und wann Hilfsmittel wie ChatGPT nutzt. Auch wer von Berufs wegen programmiert, greift auf die blitzschnellen Rechenmodelle zurück, und für Büroarbeiter wird KI in zunehmendem Maße zum alltäglichen Werkzeug, ganz so wie Rechtschreibkontrolle, Excel Kalkulationen oder Spracheingabe. Allerdings wird es immer weniger offensichtlich werden, hinter welchen Tools welche KI steckt, da die Tech-Anbieter sie ins Leistungspaket stecken wie den Autofokus beim Fotografieren mit dem Smartphone. KI-Labels könnten deshalb schon bald wirken wie ein Relikt aus vergangener Zeit. 

Bei einer Konferenz, zu der das in Washington ansässige Center for News, Technology & Innovation jüngst nach Brüssel eingeladen hatte, schlug ein Teilnehmer vor, man sollte womöglich über eine Kennzeichnung von menschengemachtem Journalismus nachdenken. Was im ersten Moment nach einem Scherz klingt, hat tatsächlich einen ernsthaften Hintergrund. Die Branche muss sich zügig darüber klar werden, wie sich Journalismus in einer Welt der rasant skalierenden automatisierten Inhalte-Produktion seine Einzigartigkeit und Relevanz bewahrt. Sonst hat sie bald größere Probleme als die Frage, wie man KI-unterstützten Journalismus im Einzelfall kennzeichnen soll.               

Diese Kolumne erschien bei Medieninsider am 28. November 2024. Aktuelle Kolumnen von Alexandra dort lesen Sie mit einem Abo.