Die Black Box der KI-Debatte: Worüber Medienmacher lieber schweigen

Es gibt dieser Tage zwei Sorten von Medienmachern: diejenigen, die sich tagein, tagaus mit künstlicher Intelligenz beschäftigen und diejenigen, die das nicht tun. Zuweilen entsteht der Eindruck, dass die erste Gruppe vor Begeisterung kaum noch wahrnimmt, dass es die zweite überhaupt gibt. Es ist ein bisschen wie in den frühen Tagen des Online-Journalismus: Die einen vernetzen sich mit Gleichgesinnten, kommentieren dieselben Studien, treffen sich auf den immer gleichen Konferenzen, vergleichen ihre Tools. Die anderen versuchen, einfach ihren Job zu machen. Wie damals scheint in der Branche eine Art Bekenntniszwang zu herrschen: Entweder man schwärmt von den Möglichkeiten der KI, oder man recherchiert, wann sie denn nun die Menschheit auslöschen wird. Viele andere halten aber lieber die Klappe. Sie sorgen sich, als Innovationsfeinde zu gelten.    

Dabei wäre gerade jetzt, wo die ersten KI-Tools ausgerollt werden, eine breite und vielschichtige Debatte wichtig. Denn es geht um praktisch alles: jeden einzelnen Job, den Wert der jeweiligen Marke, die Zukunft von Geschäftsmodellen, das Vertrauen in den Journalismus als Ganzen. Der Launch von ChatGPT im November 2022 hat ein Tor aufgemacht, hinter dem sich verschiedene Wege auftun. Jene first mover, die das Thema vorantreiben, sind gut beraten, jene außerhalb ihrer Bubble um kritische Fragen zu bitten – so, wie es der Herausgeber der New York Times, A.G. Sulzberger, in einem kürzlich veröffentlichten Interview empfiehlt: „Ich habe die Erkenntnis gewonnen, dass der Weg voran in jeglicher Phase gigantischer Transformation ist, Fragen zu stellen, die Antworten mit Skepsis zu betrachten und an keine Wunderwaffen zu glauben.“

Eine Kolumne kann das Für und Wider des Einsatzes generativer KI im Journalismus nicht erschöpfend behandeln. Aus der Fülle der Szenarien und Argumente sollen hier deshalb nur ein paar Themen angerissen werden, über die derzeit selten oder gar nicht gesprochen wird. Es geht sozusagen um die Black Box der Debatte.

Erstens: Alle reden über gefährdete Jobs, kaum jemand über Verantwortung und Haftung 

Der Einsatz generativer KI in Redaktionen ist deshalb so riskant, weil sie streng genommen im Widerspruch zum Kern des Journalismus steht. Journalismus bedeutet Faktentreue und Genauigkeit; so definierte es der Ausschuss zu Qualitätsjournalismus des Europarats. Wer es pathetischer mag, spricht von Wahrheit. Große Sprachmodelle, wie sie der GenKI zugrunde liegen, berechnen aber lediglich Wahrscheinlichkeiten. Ihr Ziel ist es, sich den Fakten möglichst weit anzunähern und damit im Zweifel Wahrheit zu simulieren. Bestehen Lücken, halluzinieren sie. Einem Großteil der Nutzer ist dies mittlerweile bewusst. Dies bedeutet aber auch, dass Journalisten sämtliche Fakten überprüfen müssen, bevor sie bei mit KI ergänzten Texten oder Illustrationen auf den Sendeknopf drücken. Eine Recherche des britischen Mediendienstes Press Gazette beschreibt entsprechende Prozesse rund um ein neues Tool namens Gutenbot, mit dem die Verlagsgruppe Reach ihre Reichweite steigert. Dem Bericht zufolge ist der Produktionsdruck immens. Wer aber haftet bei Fehlern? Sind es die Hersteller der Tools, die Verlage, oder die Redakteure am Ende der Kette? Während zum Beispiel beim Einsatz selbstfahrender Autos Haftungsfragen im Kern der Debatte stehen, werden sie im Journalismus kaum thematisiert. Dies ist jedoch zwingend, sobald KI-Experimente für den täglichen Gebrauch skaliert werden. Die Glaubwürdigkeit ist das höchste Gut einer Medienmarke. Wer Gefahr läuft, sie zu ruinieren, sollte das Risiko kennen.

Zweitens: Es wird viel darüber gesprochen, was geht, aber wenig darüber, was das Publikum wirklich braucht 

Generative KI ermöglicht vieles, sekundenschnelle Übersetzungen in viele Sprachen gehören derzeit zu ihren stärksten funktionstüchtigen Features. Theoretisch könnte jedes Medienhaus seine Inhalte auf diese Weise im Rest der Welt verbreiten. Aber ist es wirklich das, worauf die Welt wartet? Tech-affine Journalisten und Manager sind schnell begeistert von neuen Tools und Formaten, doch manches davon lässt die Nutzer kalt. Man denke an komplizierte Multimedia-Produktionen, Nachrichten auf Abruf über smarte Lautsprecher, virtuelle Realität oder auch die simple Kommentarfunktion unter Onlinetexten. Der größte Teil der Journalismuskonsumenten zeigte kein Interesse daran (ebenso wie die sich ihrer Nutzer-Forschung gerne rühmenden Tech-Konzerne bislang weder smarte Brillen noch das Metaverse unter die Leute bringen konnten). Wie das Publikum reagiert, gehört bislang zu den großen Unbekannten in der KI-gestützten Medienwelt. Je bequemer zu nutzen, desto besser – das könnte eine Faustregel sein. Aber inmitten der Flut an (KI-fabrizierten) Inhalten und Deep Fakes könnte auch das Bedürfnis nach Wahrhaftigkeit wachsen. Der Journalismus muss erforschen, was seinen Adressaten wirklich nutzt.   

Drittens: Es wird viel über Anwendungen gesprochen aber wenig darüber, was die dahinterliegende Technologie für Klima, Umwelt und Arbeitnehmer bedeutet

Generative KI verbraucht ein Vielfaches der Energie, die eine Google-Suche benötigt. Der CO2-Fußabdruck ist Fachleuten zufolge geschätzt fünfmal so hoch. Hinzu kommt der Wasserverbrauch in den Serverparks jener Tech Konzerne, über die die gängigsten Modelle laufen. Eine Studie des Data and Society Research Institutes beschäftigt sich nicht nur mit den Umweltkosten von generativer KI sondern auch damit, unter welchen Bedingungen Menschen die entsprechenden Modelle trainieren oder für Rohstoff-Nachschub sorgen. In den Medienhäusern herrscht dazu Schweigen. Chefredakteure, die noch vor Kurzem beim Klimajournalismus nachlegen wollten, schwärmen nun von den Möglichkeiten der KI. Nachhaltigkeit war gestern. Das ist einer Branche unwürdig, die verspricht, die Öffentlichkeit über Zukunftsfragen aufzuklären. Hier gilt die alte Regel, man muss nicht alles machen, was man machen kann. 

Viertens: Viele Redaktionen arbeiten an ethischen Regeln für den Gebrauch von KI, aber wenige thematisieren, was außerhalb ihres Einflusses liegt 

Mittlerweile gibt es in fast allen großen Medienhäusern ethische Regeln für den Einsatz von KI. Der Bayerische Rundfunk gehörte zu den ersten in Deutschland, die solche publik gemacht hatten. Im Detail unterscheiden sich die Dokumente, aber allen ist gemeinsam, dass sie sich um eine Balance zwischen Experimentierfreude und Risikobegrenzung bemühen. Das ist lobenswert. Aber wie wirksam werden solche ethischen Gerüste sein, wenn Mitarbeiter Software-Pakete nutzen, deren Vorgaben sie weder einsehen können noch verstehen würden? In den meisten Organisationen ist die Abhängigkeit von Microsoft Teams schon jetzt gewaltig. Die gegenwärtigen Co-Pilot-Funktionen dürften sich täglich verbessern. Auf manchem mit dem Smartphone aufgenommenen Foto ist der Himmel schon lange blauer als in Wirklichkeit. Da können Redaktionen noch so sehr beschwören, Bilder nicht zu verfälschen. Die Abhängigkeit von wenigen Tech-Konzernen ist auch im Kleinen immens, nicht nur im Großen, wenn es um Geschäftsmodelle geht. Felix Simon hat dieses Spannungsverhältnis in einem Report für das Tow-Center an der Columbia Universität gut beschrieben. Nicht jedes Haus wird es sich leisten können, eigene Sprachmodelle zu bauen. Da helfen nur branchenübergreifende Kooperationen. Die Zukunft der Medien wird auch davon abhängen, wie gut eine solche Zusammenarbeit klappt.   

Fünftens: Redaktionen betonen die Bedeutung von Menschen am Ende der KI-Produktionskette, aber was ist mit dem Anfang? 

Das Thema Vielfalt ist in den Medienhäusern in den vergangenen Jahren viel diskutiert worden – und es fällt ihnen immer wieder vor die Füße. Bauern, die mit Traktoren die Auslieferungen von Zeitungen verhindern wollten, haben Chefredaktionen jüngst daran erinnert, dass Vielfalt nicht nur Gleichstellung der Geschlechter und ethnische Diversität bedeutet, sondern dass auch der Stadt-Land-Konflikt einiger Aufmerksamkeit bedarf. Wenn Redaktionen nicht gegensteuern, werden KI-getriebene Produkte Stereotype eher verstärken als brechen – oder sich beim Brechen vergreifen, so wie der kürzlich von Google zurückgezogene Bild-Generator, der zu viel Diversity abbildete. Auch Redaktionen, die den Grundsatz „Human in the loop“ beherzigen, werden es im Eifer des Gefechts schwer haben solche Fehlgriffe zu reparieren. Hinzu kommt, dass KI zunehmend ins Recruitment einziehen wird, zum Beispiel als Tool zum Sichten von Lebensläufen. Journalismus sollte die Gesellschaft abbilden, wie sie ist. Dieses Ziel muss stehen. Hoffentlich gibt es künftig ein paar KI-Tools, die dabei helfen. 

Ohnehin sollte KI im Journalismus Werkzeug bleiben und nicht zum Schöpfer werden. Um es mit A.G. Sulzbergers Worten aus dem zuvor zitierten Interview zu sagen: „Unser Vorteil ist, dass wir von Menschen geführte Unternehmen sind, in denen Journalisten von den besten Redakteuren unterstützt werden und die Redakteure von den höchsten Standards. Wir müssen dafür sorgen, dass diese Werkzeuge immer für uns arbeiten, und dass wir mit unseren Namen dahinterstehen, statt ihnen ein Eigenleben zu gewähren, wie wir das andere haben tun sehen.“ 

Auch jeder Hype hat ein Eigenleben. Umso wichtiger ist es zu definieren, was Journalismus in der KI-Zukunft leisten soll.  

Diese Kolumne erschien bei Medieninsider am 27. Februar 2024.

Die KI-Revolution: Darauf müssen Redaktionen aufpassen

Man muss nicht von Technik besoffen sein, um sich all die Potenziale auszumalen, die in der Entwicklung von Bots wie ChatGPT stecken – auch für den Journalismus. Der in dieser Woche erschienene Trend-Report des Reuters Institutes for the Study of Journalism erwartet gar ein „Jahr des Durchbruchs“ für den Einsatz Künstlicher Intelligenz in Redaktionen. Schon länger setzen viele von ihnen KI ein, vor allem für Leseempfehlungen, aber auch für automatisierte Textproduktion. Nun könnte der „Roboterjournalismus“ aber ein neues Level erreichen. 

Der im November gelaunchte Bot von Open AI beantwortet in Windeseile Fragen und hilft sogar bei der Erstellung von Interviewfragen. Er fasst Texte zusammen oder redigiert sie, er spuckt Literaturlisten aus und komponiert sogar Cartoons. Die Möglichkeiten sind grenzenlos. Der Bot von Open AI ist das, was man auf Englisch einen Game Changer nennt. Nimmt man dazu noch die Möglichkeiten, auf Basis von Recherchen animierte Filme zu produzieren, wie das zum Beispiel die Redaktion von Semafor ausprobiert, drängt sich der Eindruck auf: Bald ist alles möglich. 

Und genau hier liegt eine riesige Herausforderung für den Journalismus. Denn schon heute fehlt es in den meisten Medienhäusern vor allem an Fokus und an Klasse, keinesfalls an Masse. Je mehr möglich ist, umso wichtiger wird es zu entscheiden, was man tut, und was man lieber lässt. Einer Branche, die ohnehin lieber mit Bauchgefühl arbeitet als mit Strategie, wird genau das besonders schwerfallen. 

Die Chancen

Unter dem Strich dürfte KI dem Journalismus deutlich mehr nützen, als dass sie ihm schadet. Das JournalismAI Project an der London School of Economics ist ein Fundus entsprechender Innovationen, inklusive Trainingsprogramm. Gerade kleine Redaktionen profitieren von KI, weil sie kleineren Teams mehr leisten können. Software wird Routinearbeiten erledigen, während Reporter tiefer recherchieren – und auch das mit Hilfe von KI. Der Faktencheck wird einfacher, hyperlokale Berichterstattung möglich, Personalisierung von Inhalten und Kundenbindung leichter zu automatisieren.

Vielfalt und Inklusivität lassen sich besser erreichen, wenn Algorithmen dies kontrollieren oder gar steuern. Bei der kanadischen Globe and Mail zum Beispiel bestückt die Software Sophi die Homepage und stellt unter anderem sicher, dass ethnische Minderheiten inhaltlich repräsentiert sind. Anderswo machen automatisierte Übersetzungen auch in seltene Sprachen Beiträge neuen Zielgruppen zugänglich. Für diejenigen, die schlecht lesen können, gibt es Text-to-speech- Software, für solche mit Gehörproblemen maschinelle Transkription. Avatare können dieselbe Nachricht je nach Zielgruppe im entsprechenden Look, Stil, und Komplexitätsgrad vermitteln. Software wie Dall-E hilft dabei, komplexe Inhalte in Bilder zu pressen. Das bedeutet auch, dass verschiedene Audiences präziser bedient werden können. Die Hoffnung besteht, mit neuen Mitteln einen größeren Teil derjenigen zu erreichen, die das Nachrichtengeschehen bislang ignoriert haben – womöglich, weil sie sich nicht angesprochen fühlten.

Die Risiken

Natürlich bestehen auch Risiken. Die Gefahr wächst, auf manipulierte Inhalte hereinzufallen, denn davon wird es reichlich geben. Journalisten werden ihre Rolle als Gatekeeper neu ausfüllen müssen. Bislang sind die Bots darauf trainiert, plausible Inhalte abzuliefern, nicht 100 Prozent Faktentreue. Fachleute sagen, die Lernkurve der KI sei steil, die Fehlerquote sinke rasant. Aber derzeit kann vermutlich niemand mit Sicherheit sagen, ob die maschinellen Möglichkeiten zu mehr Lügengeschichten oder akkuraterer Qualitätskontrolle führen werden. Und natürlich fragen sich Journalisten, wie ihre Aufgaben und Arbeitsperspektiven sich entwickeln werden in einer Welt, in der Maschinen schneller und womöglich verständlicher schreiben und produzieren, als sie das je könnten.

Die Sorgen sind berechtigt. Vor allem jene Kolleg:innen, denen es an Lust, Zeit, Ressourcen und Energie zum Lernen fehlt, könnten am Ende leer ausgehen. Viele Jobs werden sich verändern. Viele Fähigkeiten, die früher nachgefragt waren, stellt die Technik über Nacht in den Schatten. Aber der Einzug von KI in Redaktionen birgt auch Gutes für den Arbeitsmarkt. Gelten Verlagshäuser zum Beispiel heute für Tech-Talente noch als angestaubt, könnten sie zu verlockenden Arbeitgebern werden, wenn KI-Versiertheit künftig zum Job-Profil gehört. Entsprechendes Know-how macht Journalisten auch für andere Branchen attraktiv und damit leichter vermittelbar. Redaktionsarbeit dürfte interessanter werden, wenn Roboter die Routine-Jobs erledigen. 

KI werde Medienunternehmen dabei helfen, „mehr mit weniger zu erreichen und Möglichkeiten in der Produktion und Verteilung besserer Inhalte zu eröffnen“, schreibt Nic Newman im Trend-Report des Reuters Institutes, der auf einer nicht-repräsentativen Umfrage unter Top-Führungskräften in Medienhäusern weltweit beruht. „Aber sie wird auch zu neuen Dilemmata führen, wie diese machtvollen Technologien ethisch und transparent genutzt werden können“, so Newman weiter. 

Eine Frage der Ethik

Wenn sich Journalisten künftig mehr mit Ethik beschäftigen müssen, um nicht von KI überrumpelt zu werden, ist das zunächst einmal eine gute Sache. Tatsächlich ist es zwingend überall dort, wo lernende Software Menschen ersetzt, denn werden Fehler und Vorurteile maschinell skaliert, sind die Schäden potenziell immens. Genauso wichtig wird es aber sein, dass Medienhäuser und Redaktionen ihre Ziele und die dazu passende Strategie penibel entwickeln. Schon bei der digitalen Transformation haben das viele versäumt. Etliches, was nach Innovation klang, wurde gemacht, ohne vorher zu überlegen, auf welche Weise es zum Erfolg von Produkten, Marken oder Missionen beitragen könnte. Man pilgerte lieber zur New York Times, als sich mit den Bedürfnissen der potenziellen Nutzer in der Nachbarschaft zu beschäftigen. So wurde viel Geld und Energie verbrannt. Diese Fehler gilt es zu vermeiden.

Die Versuchung, immer noch mehr zu produzieren, schlicht, weil es möglich ist, könnte eines der größten Probleme des Journalismus noch verschärfen. Laut dem Trend-Report macht die wachsende Nachrichtenmüdigkeit ihres Publikums schon jetzt 71 Prozent der befragten Führungskräfte Sorgen. Dieser kann man nicht mit mehr Masse begegnen, sondern mit Angeboten, die relevant und bedürfnisgerecht sind. Ob sie mit oder ohne KI erstellt werden sollten, das müssen Menschen entscheiden. 

Diese Kolumne erschien bei Medieninsider am 11. Januar 2023

Von KI zu EthI – Wie Künstliche Intelligenz mehr Ethische Intelligenz in Redaktionen bringen kann

Wie Künstliche Intelligenz funktioniert, das kennt man ja – zumindest glaubt man es. „Kunden, die xy gekauft haben, mochten auch yz.“ Zumindest ist das die Art von KI, auf die man als Nutzer*in von Amazon, Spotify und allerlei digital ausgespielter Werbung trainiert ist. Heraus kommt immer mehr vom Ähnlichen, so dass man sich irgendwann fragt, welche Art Welt an einem wohl vorbeiziehen mag, während man so vermeintlich gut versorgt durch seine Konsument*innen-Blase schwebt. In Erinnerung bleibt die Anekdote, die eine Medien-Forscherin erzählte. Wie die Managerin eines Plattform-Unternehmens aus dem Silicon Valley sie verständnislos angeschaut habe, als sie von einem Chefredakteur*innen-Workshop sprach. Wozu man diese Rolle denn künftig noch brauche, das übernehme doch alles die Software?

Vor einem Journalismus, der so verstanden werden würde, kann es einem nur grausen. Aber nach anfänglichen Berührungsängsten („nichts geht über uns und unser Bauchgefühl“) hat sich die Debatte unter Medienschaffenden und -Wissenschaftlern, die sich ernsthaft mit den Potentialen von KI für die Branche beschäftigen, in eine gänzlich andere Richtung entwickelt. Mittlerweile geht es darum, wie man den Journalismus mithilfe von Software nicht nur stärken, sondern insbesondere ethischer machen kann. So wie die Emotionale Intelligenz (EI) den Begriff der Intelligenz erweitert hat, sollte also eine Ethische Intelligenz die KI ergänzen, man könnte sie EthI nennen.

Der erste Schritt dahin ist, es zu wollen. Der Bayerische Rundfunk ist dabei kürzlich vorgeprescht: Er hat sich Richtlinien für eine ethische KI verordnet, zehn Prinzipien, auf deren Grundlage entsprechende Software im eigenen Haus entwickelt und angewandt werden soll. Es lohnt sich, die Grundsätze zu lesen, denn sie lassen sich auch auf den Journalismus insgesamt anwenden. Es geht um den verantwortungsvollen Einsatz von Ressourcen, bestmögliche Transparenz und Debatte, Kooperationen und begleitende Evaluation. Anders als bei den von Facebook und Co. verordneten Black Boxes, die nur sehr wenig preisgeben über die Algorithmen, nach denen sie funktionieren, möchte der BR wissen, mit welchen stereotypischen Annahmen Software möglicherweise gespickt ist. Und die Kolleg*innen wollen die Spielregeln selbst bestimmen, im Verbund mit anderen. Ziel ist ein Journalismus, der endlich die Standards erfüllt, die sich Redaktionen oft selbst gesetzt haben, an denen sie aber ebenso oft gescheitert sind. Es geht um Vielfalt und Repräsentation. Der Mehrwert für die Nutzer*innen muss im Mittelpunkt stehen.

Diese Grundprinzipien sind – ganz im Geist der Kollaboration – nicht in einem Chefbüro entstanden. Uli Köppen, Teamleiterin beim BR, arbeitet im Journalism and AI Project der London School of Economics mit, einer internationalen Kooperation von klugen Köpfen aus dem Journalismus, die sich medienübergreifend mit den Potenzialen und Risiken von KI für die Branche auseinandersetzen. Man lernt dort gemeinsam und voneinander, probiert aus, trägt zusammen, verwirft Nutzloses und feiert Erfolge. Das hat den Vorteil, dass nicht jede Organisation die gleichen Fehler machen und Erfolgsgeschichten entwickeln muss. Den bitteren Konkurrenzkampf, den sich Medienhäuser und einzelne Titel jahrzehntelang geliefert haben und noch liefern, haben die Weitblickenden unter den Journalist*innen und Medienmanager*innen hinter sich gelassen. Sie wissen: Die größte Konkurrenz sitzt überall dort, wo man sich bewusst und unbewusst längst angeschickt hat, Qualitätsjournalismus feindlich zu übernehmen.

Beim „Journalism and AI Festival“ mit seinen 15 Panels wurde kürzlich deutlich, welche vielfältigen Möglichkeiten in der KI für den Journalismus stecken, aber auch, dass die Entwicklung noch ziemlich am Anfang steht (alle Panels lassen sich hier
nachhören). Auch das ist gut. Noch lässt sich vieles gestalten. Redaktionen, die sich jetzt nicht mit dem Thema beschäftigen, sollten später nicht sagen, ein Trend habe sie überrollt.

Natürlich birgt die KI auch Gefahren. Verleger*innen unter Kostendruck könnten deren Potenziale nicht für den Journalismus sondern allein als Sparprogramm nutzen. Das Abschöpfen und Interpretieren von Daten könnte aus dem Ruder laufen, exzessive Personalisierung dazu führen, dass Journalismus trennt, statt Gemeinschaft zu stiften. Sehr real ist die Gefahr eines neuen Überangebots. Vor lauter Freude an dem, was technisch möglich ist, mag so manche Redaktion über das Ziel hinausschießen und Nutzer*innen mit allem bombardieren, was sie schon gestern nicht wollten. Dabei muss Journalismus vor allem das: Orientierung bieten. Wäre doch erstaunlich, wenn KI dabei nicht helfen könnte. Allerdings nach Regeln, die von Journalist*innen gestaltet werden.

Dieser Text erschien am 18. Dezember 2020 im Newsletter des Digital Journalism Fellowship an der Hamburg Media School. 

Job Titel: Managing Roboter

Automatisierung in der Redaktion, für manch einen mag das nach Arbeitsplatzabbau klingen. Tatsächlich kann sie Medienhäusern beim Überleben helfen und den Journalismus verbessern. Es kommt ganz darauf an, was man damit macht.   

Wenn Unternehmen jetzt für Produkte werben, die Corona im Titel tragen, stellt sich zuweilen Misstrauen ein. Schließlich gilt: Keine Krise ohne Krisengewinnler, und nicht jeder hat das Gewinnen verdient. Brauchen Redaktionen also „Corona Watch“? Der Bot wertet automatisch wichtige Quellen zur Krisenlage aus und alarmiert Redakteure und Reporter über einen Slack Channel. Die Redaktion legt vorher Quellen und Kriterien fest.

Die Redaktion der schwedischen Tageszeitung Aftonbladet findet: ja. Chef vom Dienst Michael Poromaa sagt, das Tool entlaste sein Team nicht nur, es verschaffe ihm auch einen Wettbewerbsvorteil. Man hätte sonst 21 Seiten der lokalen Gesundheitsbehörden ständig selbst aktualisieren müssen, so Poromaa. „Vorher waren wir oft maximal die zweiten, die über neue Fälle berichtet hatten, jetzt sind wir die ersten.“

Entwickelt hat „Corona Watch“ die schwedische Firma United Robots, die diverse automatisierte Lösungen für Redaktionen anbietet. Aftonbladet sei mit der Idee gekommen, innerhalb eines Tages habe man sie umgesetzt, sagt Cecilia Campbell. Campbell berät United Robots, zuvor hat die Journalistin Redaktionen für die World Association of News Publishers (Wan-Ifra) beim Aufbau von Bezahlangeboten unterstützt. In Skandinavien hat man wenig Berührungsängste, was den Roboter-Journalismus angeht, im Gegenteil. „Wer es sich noch leisten kann Journalisten einzustellen, setzt sie lieber auf größere Recherchen an“, sagt Campbell. Viele einfache Aufgaben hingegen könne man gut an Roboter auslagern.

Viele Verlage glauben, dass Automatisierung der Branche beim Überleben helfen kann. Stefan Aberg zum Beispiel leitet ein Team von gerade einmal zwei Dutzend JournalistInnen beim schwedischen Medienhaus VK Media. Es sei unmöglich, damit alle Kundenbedürfnisse zu erfüllen, sagte er 2019 auf einer Konferenz. Die Lösung: „Wir bauen eine Armee von Robotern.“ Man habe Bots für alles Mögliche: Wetter, Verkehr, Grundstücksverkäufe, Sportwettkämpfe. Seitdem die Redaktion sie großflächig verwende, sei die Zahl der Digital-Abonnenten um 70 Prozent gestiegen.

Schon heute setzen Redaktionen überall auf der Welt künstliche Intelligenz ein. Die größte Rolle spielt sie bislang im Marketing. Bots machen Leserinnen und Lesern automatisiert Abo-Angebote oder beliefern sie mit personalisierten Inhalten. Manch einer sagt, sie hören dem Publikum besser zu als Journalisten, weil sie Daten entsprechend schnell auswerten können. Einige Redaktionen trauen künstlicher Intelligenz zu, ihre Homepages besser und vorurteilsfreier zu bestücken, als sie das selbst schaffen würden. Die kanadische Globe and Mail zum Beispiel lässt von Software sicherstellen, dass täglich auch Inhalte „vorne“ spielen, die für Minderheiten interessant sind. Auch bei Projekten des Datenjournalismus und bei der Überprüfung von Fakten kommt Automatisierung häufig zum Einsatz. Manch eine Redaktion lässt von Bots feststellen, ob das Geschlechterverhältnis der zitierten Quellen ausgewogen ist.

Deutlich weniger Medienhäuser delegieren das Texte-Schreiben an Roboter. Diese Möglichkeit setzen vor allem Nachrichtenagenturen ein, denn sie müssen eine Grundversorgung bieten und deshalb viele Routine-Arbeiten erledigen. Die amerikanische AP gehörte zu den ersten Anwendern, die Quartalsberichte von Unternehmen automatisch erstellen ließ. Wo Reporter früher ein paar Hundert Firmen abdeckten, kommen Roboter heute auf ein paar Tausend im Vierteljahr. Die Washington Post hat ihre Wahlberichterstattung mit Hilfe von KI-Tools massiv ausgebaut.

Droht den Redaktionen damit ein Kahlschlag? Es sagt viel über den Zustand der Branche aus, dass nicht einmal die Gewerkschaften den Roboter-Journalismus als Teufelszeug verdammen. Job-Abbau und Sparprogramme gibt es schon seit Jahren, jetzt geht es darum zu retten, was zu retten ist. Und das schaffen Redaktionen am besten, indem sie ihre Kunden flächendeckend bedienen – mit exklusiven, von Reportern recherchierten Geschichten und beliebter Standardware gleichermaßen. Zu letzterer Kategorie gehören die lokal angepassten Wetter- und Stauberichte, um sie zu erstellen, muss niemand jahrelang zur Journalistenschule gehen.

Je früher sich Redaktionen mit den Möglichkeiten von KI und Roboter-Journalismus befassen desto besser. Denn wer sich gut auskennt, lässt sich seltener Lösungen andrehen, die kein Mensch braucht. Es geht schließlich darum, den eigenen Journalismus besser zu machen. Und das wird er nicht, wenn man Leserinnen und Leser nur mit Masse erdrückt. Außerdem hilft ein Blick auf eine Ethik-Checkliste, wie sie der ehemalige AP-Journalist und Berater Tom Kent erarbeitet hat. KI-Journalismus ist immer nur so gut, wie die Daten sind, mit denen er gefüttert wird und die Vorgaben, die ihm gemacht werden.     

United Robots bietet übrigens auch ein Tool für Sportredaktionen an. Nach dem Spiel schickt es Trainern automatisch Interview-Fragen, sie orientieren sich am Spielverlauf. Aus den Antworten bastelt der Bot einen Text. Sportreporter müssten sich also gar nicht groß umstellen, sobald es wieder Wettkämpfe gibt. Sie könnten sich weiterhin auf all die hintergründigen Geschichten konzentrieren, die ihnen gegenwärtig so gut gelingen. Den Nach-dem-Spiel-Bericht schriebe Kollege Roboter. Dem Journalismus täte das gut.

Copyright: Alexandra Borchardt 2020, Beitrag für einen Newsletter des Digital Journalism Fellowship an der Hamburg Media School.

Zum Weiterlesen: