Die Black Box der KI-Debatte: Worüber Medienmacher lieber schweigen

Es gibt dieser Tage zwei Sorten von Medienmachern: diejenigen, die sich tagein, tagaus mit künstlicher Intelligenz beschäftigen und diejenigen, die das nicht tun. Zuweilen entsteht der Eindruck, dass die erste Gruppe vor Begeisterung kaum noch wahrnimmt, dass es die zweite überhaupt gibt. Es ist ein bisschen wie in den frühen Tagen des Online-Journalismus: Die einen vernetzen sich mit Gleichgesinnten, kommentieren dieselben Studien, treffen sich auf den immer gleichen Konferenzen, vergleichen ihre Tools. Die anderen versuchen, einfach ihren Job zu machen. Wie damals scheint in der Branche eine Art Bekenntniszwang zu herrschen: Entweder man schwärmt von den Möglichkeiten der KI, oder man recherchiert, wann sie denn nun die Menschheit auslöschen wird. Viele andere halten aber lieber die Klappe. Sie sorgen sich, als Innovationsfeinde zu gelten.    

Dabei wäre gerade jetzt, wo die ersten KI-Tools ausgerollt werden, eine breite und vielschichtige Debatte wichtig. Denn es geht um praktisch alles: jeden einzelnen Job, den Wert der jeweiligen Marke, die Zukunft von Geschäftsmodellen, das Vertrauen in den Journalismus als Ganzen. Der Launch von ChatGPT im November 2022 hat ein Tor aufgemacht, hinter dem sich verschiedene Wege auftun. Jene first mover, die das Thema vorantreiben, sind gut beraten, jene außerhalb ihrer Bubble um kritische Fragen zu bitten – so, wie es der Herausgeber der New York Times, A.G. Sulzberger, in einem kürzlich veröffentlichten Interview empfiehlt: „Ich habe die Erkenntnis gewonnen, dass der Weg voran in jeglicher Phase gigantischer Transformation ist, Fragen zu stellen, die Antworten mit Skepsis zu betrachten und an keine Wunderwaffen zu glauben.“

Eine Kolumne kann das Für und Wider des Einsatzes generativer KI im Journalismus nicht erschöpfend behandeln. Aus der Fülle der Szenarien und Argumente sollen hier deshalb nur ein paar Themen angerissen werden, über die derzeit selten oder gar nicht gesprochen wird. Es geht sozusagen um die Black Box der Debatte.

Erstens: Alle reden über gefährdete Jobs, kaum jemand über Verantwortung und Haftung 

Der Einsatz generativer KI in Redaktionen ist deshalb so riskant, weil sie streng genommen im Widerspruch zum Kern des Journalismus steht. Journalismus bedeutet Faktentreue und Genauigkeit; so definierte es der Ausschuss zu Qualitätsjournalismus des Europarats. Wer es pathetischer mag, spricht von Wahrheit. Große Sprachmodelle, wie sie der GenKI zugrunde liegen, berechnen aber lediglich Wahrscheinlichkeiten. Ihr Ziel ist es, sich den Fakten möglichst weit anzunähern und damit im Zweifel Wahrheit zu simulieren. Bestehen Lücken, halluzinieren sie. Einem Großteil der Nutzer ist dies mittlerweile bewusst. Dies bedeutet aber auch, dass Journalisten sämtliche Fakten überprüfen müssen, bevor sie bei mit KI ergänzten Texten oder Illustrationen auf den Sendeknopf drücken. Eine Recherche des britischen Mediendienstes Press Gazette beschreibt entsprechende Prozesse rund um ein neues Tool namens Gutenbot, mit dem die Verlagsgruppe Reach ihre Reichweite steigert. Dem Bericht zufolge ist der Produktionsdruck immens. Wer aber haftet bei Fehlern? Sind es die Hersteller der Tools, die Verlage, oder die Redakteure am Ende der Kette? Während zum Beispiel beim Einsatz selbstfahrender Autos Haftungsfragen im Kern der Debatte stehen, werden sie im Journalismus kaum thematisiert. Dies ist jedoch zwingend, sobald KI-Experimente für den täglichen Gebrauch skaliert werden. Die Glaubwürdigkeit ist das höchste Gut einer Medienmarke. Wer Gefahr läuft, sie zu ruinieren, sollte das Risiko kennen.

Zweitens: Es wird viel darüber gesprochen, was geht, aber wenig darüber, was das Publikum wirklich braucht 

Generative KI ermöglicht vieles, sekundenschnelle Übersetzungen in viele Sprachen gehören derzeit zu ihren stärksten funktionstüchtigen Features. Theoretisch könnte jedes Medienhaus seine Inhalte auf diese Weise im Rest der Welt verbreiten. Aber ist es wirklich das, worauf die Welt wartet? Tech-affine Journalisten und Manager sind schnell begeistert von neuen Tools und Formaten, doch manches davon lässt die Nutzer kalt. Man denke an komplizierte Multimedia-Produktionen, Nachrichten auf Abruf über smarte Lautsprecher, virtuelle Realität oder auch die simple Kommentarfunktion unter Onlinetexten. Der größte Teil der Journalismuskonsumenten zeigte kein Interesse daran (ebenso wie die sich ihrer Nutzer-Forschung gerne rühmenden Tech-Konzerne bislang weder smarte Brillen noch das Metaverse unter die Leute bringen konnten). Wie das Publikum reagiert, gehört bislang zu den großen Unbekannten in der KI-gestützten Medienwelt. Je bequemer zu nutzen, desto besser – das könnte eine Faustregel sein. Aber inmitten der Flut an (KI-fabrizierten) Inhalten und Deep Fakes könnte auch das Bedürfnis nach Wahrhaftigkeit wachsen. Der Journalismus muss erforschen, was seinen Adressaten wirklich nutzt.   

Drittens: Es wird viel über Anwendungen gesprochen aber wenig darüber, was die dahinterliegende Technologie für Klima, Umwelt und Arbeitnehmer bedeutet

Generative KI verbraucht ein Vielfaches der Energie, die eine Google-Suche benötigt. Der CO2-Fußabdruck ist Fachleuten zufolge geschätzt fünfmal so hoch. Hinzu kommt der Wasserverbrauch in den Serverparks jener Tech Konzerne, über die die gängigsten Modelle laufen. Eine Studie des Data and Society Research Institutes beschäftigt sich nicht nur mit den Umweltkosten von generativer KI sondern auch damit, unter welchen Bedingungen Menschen die entsprechenden Modelle trainieren oder für Rohstoff-Nachschub sorgen. In den Medienhäusern herrscht dazu Schweigen. Chefredakteure, die noch vor Kurzem beim Klimajournalismus nachlegen wollten, schwärmen nun von den Möglichkeiten der KI. Nachhaltigkeit war gestern. Das ist einer Branche unwürdig, die verspricht, die Öffentlichkeit über Zukunftsfragen aufzuklären. Hier gilt die alte Regel, man muss nicht alles machen, was man machen kann. 

Viertens: Viele Redaktionen arbeiten an ethischen Regeln für den Gebrauch von KI, aber wenige thematisieren, was außerhalb ihres Einflusses liegt 

Mittlerweile gibt es in fast allen großen Medienhäusern ethische Regeln für den Einsatz von KI. Der Bayerische Rundfunk gehörte zu den ersten in Deutschland, die solche publik gemacht hatten. Im Detail unterscheiden sich die Dokumente, aber allen ist gemeinsam, dass sie sich um eine Balance zwischen Experimentierfreude und Risikobegrenzung bemühen. Das ist lobenswert. Aber wie wirksam werden solche ethischen Gerüste sein, wenn Mitarbeiter Software-Pakete nutzen, deren Vorgaben sie weder einsehen können noch verstehen würden? In den meisten Organisationen ist die Abhängigkeit von Microsoft Teams schon jetzt gewaltig. Die gegenwärtigen Co-Pilot-Funktionen dürften sich täglich verbessern. Auf manchem mit dem Smartphone aufgenommenen Foto ist der Himmel schon lange blauer als in Wirklichkeit. Da können Redaktionen noch so sehr beschwören, Bilder nicht zu verfälschen. Die Abhängigkeit von wenigen Tech-Konzernen ist auch im Kleinen immens, nicht nur im Großen, wenn es um Geschäftsmodelle geht. Felix Simon hat dieses Spannungsverhältnis in einem Report für das Tow-Center an der Columbia Universität gut beschrieben. Nicht jedes Haus wird es sich leisten können, eigene Sprachmodelle zu bauen. Da helfen nur branchenübergreifende Kooperationen. Die Zukunft der Medien wird auch davon abhängen, wie gut eine solche Zusammenarbeit klappt.   

Fünftens: Redaktionen betonen die Bedeutung von Menschen am Ende der KI-Produktionskette, aber was ist mit dem Anfang? 

Das Thema Vielfalt ist in den Medienhäusern in den vergangenen Jahren viel diskutiert worden – und es fällt ihnen immer wieder vor die Füße. Bauern, die mit Traktoren die Auslieferungen von Zeitungen verhindern wollten, haben Chefredaktionen jüngst daran erinnert, dass Vielfalt nicht nur Gleichstellung der Geschlechter und ethnische Diversität bedeutet, sondern dass auch der Stadt-Land-Konflikt einiger Aufmerksamkeit bedarf. Wenn Redaktionen nicht gegensteuern, werden KI-getriebene Produkte Stereotype eher verstärken als brechen – oder sich beim Brechen vergreifen, so wie der kürzlich von Google zurückgezogene Bild-Generator, der zu viel Diversity abbildete. Auch Redaktionen, die den Grundsatz „Human in the loop“ beherzigen, werden es im Eifer des Gefechts schwer haben solche Fehlgriffe zu reparieren. Hinzu kommt, dass KI zunehmend ins Recruitment einziehen wird, zum Beispiel als Tool zum Sichten von Lebensläufen. Journalismus sollte die Gesellschaft abbilden, wie sie ist. Dieses Ziel muss stehen. Hoffentlich gibt es künftig ein paar KI-Tools, die dabei helfen. 

Ohnehin sollte KI im Journalismus Werkzeug bleiben und nicht zum Schöpfer werden. Um es mit A.G. Sulzbergers Worten aus dem zuvor zitierten Interview zu sagen: „Unser Vorteil ist, dass wir von Menschen geführte Unternehmen sind, in denen Journalisten von den besten Redakteuren unterstützt werden und die Redakteure von den höchsten Standards. Wir müssen dafür sorgen, dass diese Werkzeuge immer für uns arbeiten, und dass wir mit unseren Namen dahinterstehen, statt ihnen ein Eigenleben zu gewähren, wie wir das andere haben tun sehen.“ 

Auch jeder Hype hat ein Eigenleben. Umso wichtiger ist es zu definieren, was Journalismus in der KI-Zukunft leisten soll.  

Diese Kolumne erschien bei Medieninsider am 27. Februar 2024.

Die KI-Revolution: Darauf müssen Redaktionen aufpassen

Man muss nicht von Technik besoffen sein, um sich all die Potenziale auszumalen, die in der Entwicklung von Bots wie ChatGPT stecken – auch für den Journalismus. Der in dieser Woche erschienene Trend-Report des Reuters Institutes for the Study of Journalism erwartet gar ein „Jahr des Durchbruchs“ für den Einsatz Künstlicher Intelligenz in Redaktionen. Schon länger setzen viele von ihnen KI ein, vor allem für Leseempfehlungen, aber auch für automatisierte Textproduktion. Nun könnte der „Roboterjournalismus“ aber ein neues Level erreichen. 

Der im November gelaunchte Bot von Open AI beantwortet in Windeseile Fragen und hilft sogar bei der Erstellung von Interviewfragen. Er fasst Texte zusammen oder redigiert sie, er spuckt Literaturlisten aus und komponiert sogar Cartoons. Die Möglichkeiten sind grenzenlos. Der Bot von Open AI ist das, was man auf Englisch einen Game Changer nennt. Nimmt man dazu noch die Möglichkeiten, auf Basis von Recherchen animierte Filme zu produzieren, wie das zum Beispiel die Redaktion von Semafor ausprobiert, drängt sich der Eindruck auf: Bald ist alles möglich. 

Und genau hier liegt eine riesige Herausforderung für den Journalismus. Denn schon heute fehlt es in den meisten Medienhäusern vor allem an Fokus und an Klasse, keinesfalls an Masse. Je mehr möglich ist, umso wichtiger wird es zu entscheiden, was man tut, und was man lieber lässt. Einer Branche, die ohnehin lieber mit Bauchgefühl arbeitet als mit Strategie, wird genau das besonders schwerfallen. 

Die Chancen

Unter dem Strich dürfte KI dem Journalismus deutlich mehr nützen, als dass sie ihm schadet. Das JournalismAI Project an der London School of Economics ist ein Fundus entsprechender Innovationen, inklusive Trainingsprogramm. Gerade kleine Redaktionen profitieren von KI, weil sie kleineren Teams mehr leisten können. Software wird Routinearbeiten erledigen, während Reporter tiefer recherchieren – und auch das mit Hilfe von KI. Der Faktencheck wird einfacher, hyperlokale Berichterstattung möglich, Personalisierung von Inhalten und Kundenbindung leichter zu automatisieren.

Vielfalt und Inklusivität lassen sich besser erreichen, wenn Algorithmen dies kontrollieren oder gar steuern. Bei der kanadischen Globe and Mail zum Beispiel bestückt die Software Sophi die Homepage und stellt unter anderem sicher, dass ethnische Minderheiten inhaltlich repräsentiert sind. Anderswo machen automatisierte Übersetzungen auch in seltene Sprachen Beiträge neuen Zielgruppen zugänglich. Für diejenigen, die schlecht lesen können, gibt es Text-to-speech- Software, für solche mit Gehörproblemen maschinelle Transkription. Avatare können dieselbe Nachricht je nach Zielgruppe im entsprechenden Look, Stil, und Komplexitätsgrad vermitteln. Software wie Dall-E hilft dabei, komplexe Inhalte in Bilder zu pressen. Das bedeutet auch, dass verschiedene Audiences präziser bedient werden können. Die Hoffnung besteht, mit neuen Mitteln einen größeren Teil derjenigen zu erreichen, die das Nachrichtengeschehen bislang ignoriert haben – womöglich, weil sie sich nicht angesprochen fühlten.

Die Risiken

Natürlich bestehen auch Risiken. Die Gefahr wächst, auf manipulierte Inhalte hereinzufallen, denn davon wird es reichlich geben. Journalisten werden ihre Rolle als Gatekeeper neu ausfüllen müssen. Bislang sind die Bots darauf trainiert, plausible Inhalte abzuliefern, nicht 100 Prozent Faktentreue. Fachleute sagen, die Lernkurve der KI sei steil, die Fehlerquote sinke rasant. Aber derzeit kann vermutlich niemand mit Sicherheit sagen, ob die maschinellen Möglichkeiten zu mehr Lügengeschichten oder akkuraterer Qualitätskontrolle führen werden. Und natürlich fragen sich Journalisten, wie ihre Aufgaben und Arbeitsperspektiven sich entwickeln werden in einer Welt, in der Maschinen schneller und womöglich verständlicher schreiben und produzieren, als sie das je könnten.

Die Sorgen sind berechtigt. Vor allem jene Kolleg:innen, denen es an Lust, Zeit, Ressourcen und Energie zum Lernen fehlt, könnten am Ende leer ausgehen. Viele Jobs werden sich verändern. Viele Fähigkeiten, die früher nachgefragt waren, stellt die Technik über Nacht in den Schatten. Aber der Einzug von KI in Redaktionen birgt auch Gutes für den Arbeitsmarkt. Gelten Verlagshäuser zum Beispiel heute für Tech-Talente noch als angestaubt, könnten sie zu verlockenden Arbeitgebern werden, wenn KI-Versiertheit künftig zum Job-Profil gehört. Entsprechendes Know-how macht Journalisten auch für andere Branchen attraktiv und damit leichter vermittelbar. Redaktionsarbeit dürfte interessanter werden, wenn Roboter die Routine-Jobs erledigen. 

KI werde Medienunternehmen dabei helfen, „mehr mit weniger zu erreichen und Möglichkeiten in der Produktion und Verteilung besserer Inhalte zu eröffnen“, schreibt Nic Newman im Trend-Report des Reuters Institutes, der auf einer nicht-repräsentativen Umfrage unter Top-Führungskräften in Medienhäusern weltweit beruht. „Aber sie wird auch zu neuen Dilemmata führen, wie diese machtvollen Technologien ethisch und transparent genutzt werden können“, so Newman weiter. 

Eine Frage der Ethik

Wenn sich Journalisten künftig mehr mit Ethik beschäftigen müssen, um nicht von KI überrumpelt zu werden, ist das zunächst einmal eine gute Sache. Tatsächlich ist es zwingend überall dort, wo lernende Software Menschen ersetzt, denn werden Fehler und Vorurteile maschinell skaliert, sind die Schäden potenziell immens. Genauso wichtig wird es aber sein, dass Medienhäuser und Redaktionen ihre Ziele und die dazu passende Strategie penibel entwickeln. Schon bei der digitalen Transformation haben das viele versäumt. Etliches, was nach Innovation klang, wurde gemacht, ohne vorher zu überlegen, auf welche Weise es zum Erfolg von Produkten, Marken oder Missionen beitragen könnte. Man pilgerte lieber zur New York Times, als sich mit den Bedürfnissen der potenziellen Nutzer in der Nachbarschaft zu beschäftigen. So wurde viel Geld und Energie verbrannt. Diese Fehler gilt es zu vermeiden.

Die Versuchung, immer noch mehr zu produzieren, schlicht, weil es möglich ist, könnte eines der größten Probleme des Journalismus noch verschärfen. Laut dem Trend-Report macht die wachsende Nachrichtenmüdigkeit ihres Publikums schon jetzt 71 Prozent der befragten Führungskräfte Sorgen. Dieser kann man nicht mit mehr Masse begegnen, sondern mit Angeboten, die relevant und bedürfnisgerecht sind. Ob sie mit oder ohne KI erstellt werden sollten, das müssen Menschen entscheiden. 

Diese Kolumne erschien bei Medieninsider am 11. Januar 2023

Von KI zu EthI – Wie Künstliche Intelligenz mehr Ethische Intelligenz in Redaktionen bringen kann

Wie Künstliche Intelligenz funktioniert, das kennt man ja – zumindest glaubt man es. „Kunden, die xy gekauft haben, mochten auch yz.“ Zumindest ist das die Art von KI, auf die man als Nutzer*in von Amazon, Spotify und allerlei digital ausgespielter Werbung trainiert ist. Heraus kommt immer mehr vom Ähnlichen, so dass man sich irgendwann fragt, welche Art Welt an einem wohl vorbeiziehen mag, während man so vermeintlich gut versorgt durch seine Konsument*innen-Blase schwebt. In Erinnerung bleibt die Anekdote, die eine Medien-Forscherin erzählte. Wie die Managerin eines Plattform-Unternehmens aus dem Silicon Valley sie verständnislos angeschaut habe, als sie von einem Chefredakteur*innen-Workshop sprach. Wozu man diese Rolle denn künftig noch brauche, das übernehme doch alles die Software?

Vor einem Journalismus, der so verstanden werden würde, kann es einem nur grausen. Aber nach anfänglichen Berührungsängsten („nichts geht über uns und unser Bauchgefühl“) hat sich die Debatte unter Medienschaffenden und -Wissenschaftlern, die sich ernsthaft mit den Potentialen von KI für die Branche beschäftigen, in eine gänzlich andere Richtung entwickelt. Mittlerweile geht es darum, wie man den Journalismus mithilfe von Software nicht nur stärken, sondern insbesondere ethischer machen kann. So wie die Emotionale Intelligenz (EI) den Begriff der Intelligenz erweitert hat, sollte also eine Ethische Intelligenz die KI ergänzen, man könnte sie EthI nennen.

Der erste Schritt dahin ist, es zu wollen. Der Bayerische Rundfunk ist dabei kürzlich vorgeprescht: Er hat sich Richtlinien für eine ethische KI verordnet, zehn Prinzipien, auf deren Grundlage entsprechende Software im eigenen Haus entwickelt und angewandt werden soll. Es lohnt sich, die Grundsätze zu lesen, denn sie lassen sich auch auf den Journalismus insgesamt anwenden. Es geht um den verantwortungsvollen Einsatz von Ressourcen, bestmögliche Transparenz und Debatte, Kooperationen und begleitende Evaluation. Anders als bei den von Facebook und Co. verordneten Black Boxes, die nur sehr wenig preisgeben über die Algorithmen, nach denen sie funktionieren, möchte der BR wissen, mit welchen stereotypischen Annahmen Software möglicherweise gespickt ist. Und die Kolleg*innen wollen die Spielregeln selbst bestimmen, im Verbund mit anderen. Ziel ist ein Journalismus, der endlich die Standards erfüllt, die sich Redaktionen oft selbst gesetzt haben, an denen sie aber ebenso oft gescheitert sind. Es geht um Vielfalt und Repräsentation. Der Mehrwert für die Nutzer*innen muss im Mittelpunkt stehen.

Diese Grundprinzipien sind – ganz im Geist der Kollaboration – nicht in einem Chefbüro entstanden. Uli Köppen, Teamleiterin beim BR, arbeitet im Journalism and AI Project der London School of Economics mit, einer internationalen Kooperation von klugen Köpfen aus dem Journalismus, die sich medienübergreifend mit den Potenzialen und Risiken von KI für die Branche auseinandersetzen. Man lernt dort gemeinsam und voneinander, probiert aus, trägt zusammen, verwirft Nutzloses und feiert Erfolge. Das hat den Vorteil, dass nicht jede Organisation die gleichen Fehler machen und Erfolgsgeschichten entwickeln muss. Den bitteren Konkurrenzkampf, den sich Medienhäuser und einzelne Titel jahrzehntelang geliefert haben und noch liefern, haben die Weitblickenden unter den Journalist*innen und Medienmanager*innen hinter sich gelassen. Sie wissen: Die größte Konkurrenz sitzt überall dort, wo man sich bewusst und unbewusst längst angeschickt hat, Qualitätsjournalismus feindlich zu übernehmen.

Beim „Journalism and AI Festival“ mit seinen 15 Panels wurde kürzlich deutlich, welche vielfältigen Möglichkeiten in der KI für den Journalismus stecken, aber auch, dass die Entwicklung noch ziemlich am Anfang steht (alle Panels lassen sich hier
nachhören). Auch das ist gut. Noch lässt sich vieles gestalten. Redaktionen, die sich jetzt nicht mit dem Thema beschäftigen, sollten später nicht sagen, ein Trend habe sie überrollt.

Natürlich birgt die KI auch Gefahren. Verleger*innen unter Kostendruck könnten deren Potenziale nicht für den Journalismus sondern allein als Sparprogramm nutzen. Das Abschöpfen und Interpretieren von Daten könnte aus dem Ruder laufen, exzessive Personalisierung dazu führen, dass Journalismus trennt, statt Gemeinschaft zu stiften. Sehr real ist die Gefahr eines neuen Überangebots. Vor lauter Freude an dem, was technisch möglich ist, mag so manche Redaktion über das Ziel hinausschießen und Nutzer*innen mit allem bombardieren, was sie schon gestern nicht wollten. Dabei muss Journalismus vor allem das: Orientierung bieten. Wäre doch erstaunlich, wenn KI dabei nicht helfen könnte. Allerdings nach Regeln, die von Journalist*innen gestaltet werden.

Dieser Text erschien am 18. Dezember 2020 im Newsletter des Digital Journalism Fellowship an der Hamburg Media School. 

Exklusivität vs. Ethik – Wie viel Verantwortung haben Journalist*innen?

Kürzlich sind die alte und die neue Welt des Journalismus ordentlich aufeinandergeprallt. Natürlich lassen sich beide nicht so scharf trennen, aber wenn einer, der am Zusammenstoß Beteiligten, Bob Woodward heißt, darf man das wohl so beschreiben. Woodward ist am bekanntesten als Teil des Journalisten-Gespanns Woodward und Bernstein, das einst den Watergate-Skandal enthüllte. In seinem gerade erschienenen Buch mit dem Titel „Rage“ nimmt er sich den amerikanischen Präsidenten vor. 18 Interviews hat er dafür mit Donald Trump geführt, und in einem davon hatte der ihm erzählt, wie gefährlich das neue Coronavirus sei. Pikantes Detail: Das war am 7. Februar. Schon damals war das kaum exklusiver Stoff, könnte man sagen. Allerdings hatte Trump die Gefahr gleichzeitig öffentlich heruntergespielt. Deshalb sieht Woodward nun schlecht aus: Hätte der die Information aus moralischer Verantwortung heraus nicht gleich publizieren müssen, statt auf die Buchveröffentlichung im September zu warten?

Genau darüber ist in der Medien-Szene und darüber hinaus ein Streit ausgebrochen. Woodward habe nur seine Auflage steigern wollen, sagen die einen. Er habe die Sache erst einmal sauber recherchieren wollen, sagt Woodward. Und dann gibt es die, die Woodward ohnehin für überschätzt halten. Dieser leide unter einem Mangel an moralischer Neugier, schreibt Alex Nazaryan. Der Autor ist ebenfalls in der Washingtoner Journalisten-Szene unterwegs, für die Los Angeles Times hat er mit spürbarer Empörung nicht nur „Rage“ sondern gleich Woodwards gesamtes Werk verrissen.

Da mag es offene Rechnungen gegeben haben. Aber die Frage, die dahinter liegt, ist brisant. Wem gegenüber sind Journalist*innen verantwortlich, wenn sie bei Recherchen etwas erfahren, dessen zügige Veröffentlichung den Lauf der Dinge zum Guten beeinflussen könnte: ihrem Verlag, der von der Exklusivität profitiert und deshalb mehr am Einschlag eines Scoop-Kometen als an einer Vielzahl von Nachrichten-Schnuppen interessiert ist? Oder der Öffentlichkeit, die ein Interesse daran haben muss, dass Missstände so schnell wie möglich publik werden? Die Frage lässt sich nur von Fall zu Fall beantworten. Aber das Missfallen im Fall Woodward hat auch mit einem Generationen-Konflikt im Journalismus zu tun.

Die alten Dickschiffe der Branche wie die Washington Post, New York Times oder in Deutschland Der Spiegel und natürlich die Buchverlage leben vom dicken Scoop oder eben vom Bestseller. Er ist ihr Geschäftsmodell. Schneller, exklusiver, einfach besser zu sein als die Konkurrenz wirkt als Treibstoff, die großen Enthüllungen prägen ihr Selbstverständnis. Dahinter steckt nicht nur die Gier nach Aufmerksamkeit, Ruhm und Ehre. Die Ethik dahinter wird auch geprägt von der Denke: Erst wenn es richtig laut knallt, hört jeder den Schuss. Es muss eine Entrüstungs-Schwelle überschritten werden, um Akteure wie zum Beispiel Gesetzgeber oder Unternehmen dazu zu bewegen, etwas zu verändern. Gleichzeitig müssen alle Recherchen gerade bei komplexen Themen juristisch wasserdicht sein. Viele Veröffentlichungen, die erwartbar Ärger nach sich ziehen, werden von der Sorge begleitet, mächtige Objekte der Berichterstattung könnten ein Medienhaus in Grund und Boden klagen. All diese Erwägungen prägen Überlegungen dazu, wie schnell man bestimmte Dinge ans Licht zerren muss.

Die jüngere Generation von Journalist*innen muss sich mit den juristischen Fallstricken ebenso beschäftigen wie ihre Vorgänger. Aber die Idee, dass das Wohl des Medienhauses über allem steht, passt vielen nicht mehr in einer Zeit, in der Kollaborationen mit anderen, Beteiligung der Leser/User*innen an Recherchen und persönliche Verantwortung für den publizistischen Auftritt stärker ins Zentrum rücken. Im digitalen „Audience first“ sieht man sich mehr als Partner seines Publikums denn als Teil einer Operation, in der gilt: „Ego first“. In Abwandlung des Claims der Süddeutschen Zeitung, die sich neuerdings mit dem Slogan „Mut entscheidet“ schmückt, könnte man den Journalismus neueren Typs auch so beschreiben: „Demut entscheidet“.

Dazu passt es überhaupt nicht, der Öffentlichkeit um des schönen Scoops willen relevante Informationen vorzuenthalten. Nun mag man im Fall Woodward argumentieren, es hätte rein gar nichts geändert, Trumps Einschätzung zum Virus früher zu publizieren. Die Bürger+innen haben längst gelernt, auf das gesprochene Wort des Präsidenten nicht allzu viel zu geben. Aber die von Woodward so verschnupfte Reaktion erstaunt nun doch. Womöglich hat sie mit seiner Verankerung im Washingtoner Establishment zu tun. Politikjournalist*innen interessieren sich häufig eher für Macht als für das, was Macht anrichtet. Anders gesagt: „den Präsidenten zu Fall bringen“ steht auf Woodwards Prioritäten-Liste vielleicht höher als „Leben retten“ – wobei man in dem Fall argumentieren könnte, dass das eine mit dem anderen verknüpft ist.

Was die Sache lehrt: Journalist*innen täten gut daran, sich mit den Folgen ihres Tuns stärker auseinanderzusetzen. Es gibt ihn schließlich immer wieder, den Journalismus, der im Dienste des Scoops und der Schlagzeile gnadenlos Verletzlichkeiten ausbeutet. Die jüngste Kontroverse um die Veröffentlichung von WhatsApp-Nachrichten eines Kindes in der Bild-Zeitung, das sich nach dem Mord an seinen Geschwistern in höchster Not einem Freund anvertraut hatte, ist ein trauriges Beispiel dafür. In dem Fall hat sogar Springer-Konzernchef Mathias Döpfner Fehler eingeräumt.

Aber auch in weniger drastischen Fällen denken Journalist*innen häufig zu wenig darüber nach, was es mit Menschen macht, wenn sie plötzlich Objekte der Berichterstattung werden. Die Kommunikationswissenschaftlerin Ruth Palmer hat ein aufschlussreiches Buch darüber geschrieben: „Becoming the News – How ordinary people respond to the media spotlight“.

Auch das ist klar: Reporter*innen sind keine Sozialarbeiter*innen. Ethisch können sie sich trotzdem verhalten. Wie dies gehen kann, haben Jodi Kantor und Megan Twohey in ihrem Buch „She said“ dokumentiert. Die Autorinnen beschreiben in diesem Lehrstück investigativer Recherche, wie sie den Skandal um Harvey Weinstein aufgedeckt und die MeToo-Debatte behandelt haben. Besonders interessant daran sind die Diskussionsprozesse innerhalb der New York Times: Wie Investigativ-Chefin Rebecca Corbett stets mahnte, mehr Fakten zu sammeln statt Aussagen – zum Beispiel Verträge mit Verschwiegenheitsklauseln. Wie viel Material die Reporter*innen zusammentragen mussten, bis endlich die Entscheidung fiel: jetzt wird veröffentlicht. Und wie sie mit ihren Quellen kommuniziert hatten, transparent, klar, sie ernst nehmend. Auch bei Weinstein war der Antrieb der Scoop. Aber bis zum Schluss ging es auch um die Frauen.

Dieser Text erschien im Newsletter des Digital Journalism Fellowship an der Hamburg Media School am 18. September 2020. 

 

Keine Angst vor Trollen: Fünf Gründe, warum das Internet noch zu retten ist

Manchmal sieht es so aus, als sei das Internet vom Werkzeug der Unterdrückten zum Instrument der Unterdrücker geworden. Aber es gibt Fakten, die Hoffnung machen. Trotz Trump, Fake-News und Troll-Fabriken bleibt das Internet ein Zukunftsversprechen. 

Für Inter­net-Opti­mis­ten hält ein neuer Report aus Oxford ver­stö­ren­den Lese­stoff parat: Schon mehr als ein Drittel aller Staats­re­gie­run­gen nutzt das Netz dazu, die eigene Bevöl­ke­rung mit Hilfe sozia­ler Netz­werke zu mani­pu­lie­ren, wie Saman­tha Brad­shaw und Philip Howard vom Oxford Inter­net Insti­tute in ihrer Studie „The Global Dis­in­for­ma­tion Order“ her­aus­ge­fun­den haben. Eine wach­sende Anzahl ver­breite online zudem nicht nur Pro­pa­ganda, sondern schüch­tere Kri­ti­ker ein, bringe Oppo­si­tio­nelle zum Schwei­gen und ver­letze gar Men­schen­rechte. Und die Freude an der digi­ta­len Kon­trolle nehme zu: Iden­ti­fi­zierte die Studie 2017 noch 28 solche Länder, waren es ein Jahr später schon 48, in diesem Jahr nun 70. Einige Staaten misch­ten sich zudem mit geziel­ten Kam­pa­gnen in Ange­le­gen­hei­ten anderer Länder ein, nament­lich China, Russ­land, Iran, Saudi Arabien, Vene­zuela, Paki­stan und Indien – immer­hin die größte Demo­kra­tie der Welt. Bevor­zugt griffen die Täter über Face­book an, so die For­scher. Man kann diese Infor­ma­tion Ope­ra­ti­ons – so das Fach­wort – auch Kriegs­füh­rung mit vir­tu­el­len Waffen nennen.

Lassen sich die Errun­gen­schaf­ten des demo­kra­ti­schen Zeit­al­ters bewah­ren?

Nun gibt es ja schon im Kleinen aus­rei­chend Pöbe­leien, Hass­rede und Lügen im Netz – neu­er­dings sogar mit rich­ter­li­cher Bil­li­gung. Die Grünen-Poli­ti­ke­rin Renate Künast musste sich im Sep­tem­ber vom Ber­li­ner Land­ge­richt erklä­ren lassen, dass sie es hin­zu­neh­men habe, „Schlampe“, „Drecks Fotze“ oder „Geis­tes­kranke“ genannt zu werden. Hinzu kommt gezielte Falsch­in­for­ma­tion, gemein­hin unter dem Begriff Fake News zusam­men­ge­fasst. Wenn all das auch noch staat­lich gelenkt und geför­dert mit immer bes­se­ren tech­ni­schen Mög­lich­kei­ten geschieht, fällt Zuver­sicht schwer. Ist das Netz vom Werk­zeug der Unter­drück­ten zum Instru­ment der Unter­drü­cker gewor­den? Gepflegte Debatte, zuver­läs­sige Infor­ma­tion, Wahl­ent­schei­dun­gen ohne Mei­nungs­ma­ni­pu­la­tion – es scheint gar nicht so sicher zu sein, dass sich die Errun­gen­schaf­ten des demo­kra­ti­schen Zeit­al­ters bewah­ren lassen.

 

Und doch muss nun nicht jeder den Habeck machen und sich bei Face­book und Twitter abmel­den wie der Grünen-Chef, oder gar ein Ere­mi­ten-Leben planen wie der Inter­net-Aus­stei­ger in Dave Eggers‘ Inter­net-Dys­to­pie „The Circle“. Es gibt durch­aus einige Fakten, die Hoff­nung machen können:

Fake-News sel­te­ner als man denkt

Erstens, die Angst vor fal­scher Infor­ma­tion ist weitaus größer als die tat­säch­li­che Ver­brei­tung von Lügen und ver­dreh­ten Fakten. Das gilt zumin­dest für die hiesige poli­ti­sche Welt. Dies belegen Studien, unter anderem der Digital News Report des Reuters Insti­tute for the Study of Jour­na­lism. Zwar macht sich ein großer Teil des Publi­kums wegen des Themas Sorgen. Iro­ni­scher­weise tragen die Medien-Berichte über Troll-Fabri­ken und Infor­ma­ti­ons­ma­ni­pu­la­tion nicht unwe­sent­lich dazu bei. Aber nur ein kleiner Teil der Online-Nutzer bekommt tat­säch­lich erfun­dene Inhalte zu Gesicht, und ein noch klei­ne­rer ver­brei­tet sie weiter.

Junge Nutzer denken kri­tisch

Zwei­tens, die junge Genera­tion geht ver­ant­wor­tungs­be­wuss­ter mit dem Netz um als die ältere. Auch das belegen Studien. Während viele in der ana­lo­gen Welt sozia­li­sierte Online-Nutzer krude Dinge nicht hin­ter­fra­gen, weil diese schwarz auf weiß daher­kom­men, navi­gie­ren die Jungen mit gesun­der Skepsis durchs Netz. Die Pro­gramme zur Medi­en­bil­dung an den Schulen schei­nen zu wirken – dumm nur, dass es zu wenig sys­te­ma­ti­sche Auf­klä­rung für ältere Genera­tio­nen gibt.

Bürger sind lernfähig

Drit­tens, es emp­fiehlt sich, die Bürger nicht zu unter­schät­zen. Das Publi­kum ist lern­fä­hig. Viele online Nutzer haben sich bereits von Face­book abge­wandt, weil ihnen Kako­pho­nie, Unglaub­wür­dig­keit und Ver­wick­lung in Skan­dale wie Cam­bridge Ana­ly­tica zu viel gewor­den sind. Das gilt sowohl für Jugend­li­che im glo­ba­len Norden als auch für viele Nutzer in Ländern Afrikas und Süd­ost­asi­ens, bei denen Face­book als „Fake News Kanal“ gilt. Das heißt natür­lich nicht, dass der Face­book-Konzern an Macht ver­liert. Immer­hin gehören auch Insta­gram und Whats­app zum Impe­rium von Mark Zucker­berg.

Print-Zei­tun­gen machen Twitter groß

Vier­tens, Donald Trump regiert nicht über Twitter. Ent­ge­gen all­ge­mei­ner Annah­men infor­mie­ren sich die Anhän­ger von Popu­lis­ten deut­lich stärker über das Fern­se­hen als über soziale Medien, auch das belegt der Digital News Report. Im Netz hin­ge­gen suchen eher die­je­ni­gen nach Aus­kunft, die sich dif­fe­ren­zier­ter mit der Welt aus­ein­an­der­set­zen. Dennoch besitzt Twitter Durch­schlags­kraft. Vor allem, weil tra­di­tio­nelle Medien oder Sender wie Fox News die Reich­weite dras­ti­scher Tweets und Posts massiv erhöhen. Jour­na­lis­ten können also sehr viel für eine kon­struk­tive Debatte tun, wenn sie die Empö­rungs-Maschi­ne­rie nicht anhei­zen.

Ein bes­se­res Inter­net ist möglich

Fünf­tens, die digi­tale Welt ist nicht wie das Wetter, das man hin­neh­men muss. Sie lässt sich gestal­ten. Zum Glück wird dieser Tage in vielen natio­na­len und inter­na­tio­na­len Gremien bis hin zur UNESCO darüber debat­tiert, wie man mit den Ver­stär­ker-Effek­ten des Inter­nets umgehen soll. Dass die Algo­rith­men der Platt­for­men von mäch­ti­gen kom­mer­zi­el­len und staat­li­chen Inter­es­sen getrie­ben werden, macht es nicht leich­ter. Aber die Zusam­men­hänge sind vielen Akteu­ren klarer als vor zehn Jahren, und unter Demo­kra­ten ist der Wunsch groß, das Netz zu nutzen, um Mit­spra­che und Teil­habe zu ver­bes­sern. Die EU ist eine Bastion gewor­den, wenn es darum geht, die Bürger der Mit­glied­staa­ten gegen den Miss­brauch ihrer digi­ta­len Spuren zu ver­tei­di­gen. Und selbst Face­book inves­tiert in die unab­hän­gige Erfor­schung ethi­scher Fragen von künst­li­cher Intel­li­genz, auch wenn manch einer das kri­tisch sehen mag. Der Konzern aus dem Silicon Valley steckt 6,5 Mil­lio­nen Euro in ein ent­spre­chen­des Insti­tut an der TU München.

Natür­lich bleibt die Lage ernst. Vor allem dort, wo Popu­lis­ten sich des Netzes bedie­nen, brau­chen Kon­troll­in­stan­zen wie Gerichte und unab­hän­gige Medien Stär­kung, die Opfer von Atta­cken Schutz. Das ist dort ungleich schwie­ri­ger, wo Popu­lis­ten regie­ren. Aber eine starke Demo­kra­tie ist immer noch die beste Ver­si­che­rung gegen Miss­brauch im Netz. Und man sollte sich nicht beirren lassen: Die Anstän­di­gen, die fried­lich mit ihren Nach­barn zusam­men­le­ben wollen, sind bei genaue­rem Hin­se­hen meist in der Mehr­heit. Auch wenn sie von den Krach­ma­chern über­tönt werden.

Diese Kolumne erschien bei Zentrum Liberale Moderne am 29. Oktober 2019