KI-Siegel im Journalismus? Wenn, dann richtig

Im Fall Sports Illustrated war die Sache eindeutig. Als durchsickerte, dass nicht hinter jedem Kolumnisten und Reporter des traditionsreichen amerikanischen Sportmagazins ein kluger Kopf sondern zuweilen nur ein Sprachmodell steckte, kostete das etliche Abos und am Ende auch CEO Ross Levinsohn seinen Job. Redaktionen, die Journalisten-Imitate aus künstlicher Intelligenz einsetzen, machen das also besser selbstbewusst mit eindeutigem Transparenz-Hinweis, wie dies zum Beispiel der Kölner Express mit seiner Avatar-Reporterin Klara Indernach (abgekürzt KI!) tut. Und selbst dann kann die Sache schief gehen. Der Radio-Sender Off Radio aus Krakau, der zunächst stolz verkündet hatte, seinen Hörern ein allein von KI gesteuertes Programm vorzusetzen, musste das Experiment nach kurzer Zeit abbrechen. Eine Avatar-Moderatorin hatte ein fiktives Interview mit der Literatur-Nobelpreisträgerin Wislawa Szymborska geführt und sie zu aktuellen Themen befragt – nur lebt die Autorin schon seit 2012 nicht mehr. Das Publikum war entsetzt.

Derzeit gilt Transparenz und eine offene Debatte darüber, ob, wann und in welchem Maße Redaktionen beim Erstellen von Inhalten KI einsetzen, in der Branche dennoch als eine Art Königsweg. In den meisten Ethik-Leitlinien zum redaktionellen Umgang mit KI dürfte sich dazu der eine oder andere Absatz finden. Die Furcht ist groß, durch unbedachten KI-Gebrauch die eigene Marke zu beschädigen und das vielerorts angeknackste Medienvertrauen weiter auszuhöhlen. Da schreibt man dann lieber mal dazu, dass diese oder jene Zusammenfassung oder Übersetzung von Sprachmodellen generiert wurde. Wie das bei den Lesern und Nutzern ankommt, ist allerdings noch kaum erforscht – und auch unter Branchen-Experten umstritten. Während die einen sich für Kennzeichnungen aussprechen, wie man sie von Nahrungsmitteln kennt, verweisen die anderen darauf, dass Label das Publikum erst recht misstrauisch stimmen könnten. Immerhin könnte der Hinweis „KI-unterstützt“ auch so interpretiert werden, dass sich die Redaktion aus der Verantwortung stehlen möchte.

Aus anderen Bereichen weiß man zudem: zu viel Transparenz kann Vertrauen ebenso schmälern wie zu wenig. Eine vollständige Liste aller Pannen und Kunstfehler, im Foyer eines Krankenhauses ausgehängt, würde Patienten vermutlich eher abschrecken als zuversichtlich stimmen. Gleiches gilt für Defekte an Flugzeugen oder Missgeschicke in Restaurantküchen. Wer überall einen Warnhinweis liest, ergreift entweder die Flucht oder schaut nicht mehr hin. Rachel Botsman, eine führende Expertin zum Thema, definiert Vertrauen als „eine selbstbewusste Beziehung zum Unbekannten“. Transparenz und Kontrolle stärkten Vertrauen nicht, sondern machten es weniger notwendig, weil sie das Unbekannte reduzierten, argumentiert sie.

Viel wichtiger für die Vertrauensbildung sind gute Erfahrungen mit der Marke oder Individuen, die sie repräsentieren. Dazu sollte eine Organisation offen darüber kommunizieren, welche Schritte sie unternimmt und welche Prozesse sie installiert hat, um Pannen zu verhindern. In Flugzeugen gehören dazu Redundanz von Technik, die doppelte Besetzung des Cockpits und feste Abläufe, in Redaktionen das Vier-Augen- und das Zwei-Quellen-Prinzip. Wenn Menschen einer Medienmarke vertrauen, gehen sie schlicht davon aus, dass dieses Haus alle Abläufe nach bestem Wissen und Gewissen strukturiert und regelmäßig überprüft. Wird KI als Sonderfall herausgestellt, könnte sich der Eindruck einschleichen, dass die Redaktion der Sache selbst nicht so richtig traut.

Felix Simon, Wissenschaftler am Reuters Institute in Oxford, hält deshalb allgemeine Transparenz-Regeln für ebenso wenig praxistauglich wie auch den Grundsatz, es müsse immer ein Mensch die Endkontrolle übernehmen. Es sei eine Fehlannahme, dass man allein mit diesen Maßnahmen das Vertrauen des Publikums zurückgewinnen könne, schreibt er in einem Essay.

Viele Journalisten machen sich zudem nicht bewusst, wie stark ihre eigene redaktionelle Berichterstattung über Künstliche Intelligenz das Verhältnis ihres Publikums dazu prägt. Wer in Interviews, Essays und Podcasts ständig liest und hört, was für einem Teufelszeug sich die Menschheit da ausliefert, wird der Technologie kaum aufgeschlossen gegenüberstehen, wenn die sonst so geschätzte Redaktion plötzlich überall KI-Hinweise anbringt. In Umfragen äußern sich Befragte deshalb erwartungsgemäß eher skeptisch, wenn sie zum Einsatz von KI im Journalismus um Auskunft gebeten werden.

Es gilt deshalb, die Kompetenz der eigenen Reporter zu stärken, damit sie das Thema KI vielschichtig angehen und konstruktiv begleiten, statt zwischen Hype und Weltuntergang zu mäandrieren. Auch die Vermenschlichung von KI – sei es über Avatar-Reporter oder nur in der Sprache (streng genommen ist schon Intelligenz ein unpassendes Wort) – trägt nicht gerade dazu bei, dem Publikum ein realistisches Bild davon zu vermitteln, was Sprach- und Rechenmodelle können und was eben nicht.   

 

Der Eindruck, den Menschen von KI haben, wird zudem stark davon geprägt werden, welche Erfahrungen sie selbst damit machen. Unter Studierenden gibt es wohl schon gegenwärtig kaum jemanden mehr, der nicht dann und wann Hilfsmittel wie ChatGPT nutzt. Auch wer von Berufs wegen programmiert, greift auf die blitzschnellen Rechenmodelle zurück, und für Büroarbeiter wird KI in zunehmendem Maße zum alltäglichen Werkzeug, ganz so wie Rechtschreibkontrolle, Excel Kalkulationen oder Spracheingabe. Allerdings wird es immer weniger offensichtlich werden, hinter welchen Tools welche KI steckt, da die Tech-Anbieter sie ins Leistungspaket stecken wie den Autofokus beim Fotografieren mit dem Smartphone. KI-Labels könnten deshalb schon bald wirken wie ein Relikt aus vergangener Zeit. 

Bei einer Konferenz, zu der das in Washington ansässige Center for News, Technology & Innovation jüngst nach Brüssel eingeladen hatte, schlug ein Teilnehmer vor, man sollte womöglich über eine Kennzeichnung von menschengemachtem Journalismus nachdenken. Was im ersten Moment nach einem Scherz klingt, hat tatsächlich einen ernsthaften Hintergrund. Die Branche muss sich zügig darüber klar werden, wie sich Journalismus in einer Welt der rasant skalierenden automatisierten Inhalte-Produktion seine Einzigartigkeit und Relevanz bewahrt. Sonst hat sie bald größere Probleme als die Frage, wie man KI-unterstützten Journalismus im Einzelfall kennzeichnen soll.               

Diese Kolumne erschien bei Medieninsider am 28. November 2024. Aktuelle Kolumnen von Alexandra dort lesen Sie mit einem Abo. 

Gesellschaft des Misstrauens

Was ist zu tun gegen Miss- und Desinformation, für Medienvielfalt und Zusammenhalt? Eine Antwort. 

Man kann sich dem Thema Falsch­information von zwei Seiten annähern. Auf der einen, der schaurig-alarmschlagenden, mangelt es nicht an drastischer Sprache und düsteren Szenarien. Dort warnen Experten vor einer Welt der künstlich verfälschten oder gänzlich fabrizierten Ton-, Bild- und Textdokumente, die täuschend echt daherkommen, skalieren und deshalb das Ende des Konzepts Vertrauenn oder gleich der Wahrheit einläuten.

Auf der anderen, der nüchtern-akademischen, bemühen sich Forscher, das prognostizierte Drama im Lichte des Jetzt zu spiegeln. Mit Blick auf die Datenlage argumentieren sie: Abgesehen von seit jeher üblicher politischer Propaganda, die sich vom Wahlplakat über den Tweet bis zum Politikerinterview zieht, seien verhältnismäßig wenige Menschen überhaupt solchen Desinformationsattacken ausgesetzt. Es handele sich um ein „Heavy User“-Phänomen, das sich womöglich weniger auf alltägliches Verhalten auswirke, als die Alarmschlagenden dies vermuteten. „Desinformation ist ein begrenztes Problem mit begrenzter Reichweite in der Öffentlichkeit“, schrieben Andreas Jungherr und Ralph Schroeder 2021. Die Prominenz des Themas in der öffentlichen Debatte lasse sich am besten mit dem Begriff „moralische Panik“ erklären.   

Welcher dieser Seiten man sich zugetan fühlt, hängt stark vom Menschenbild ab. Wer bevorzugt denjenigen folgt, die Schlimmes befürchten, traut seinen Mitmenschen – und womöglich sich selbst – wenig zu. Er hält sie in der Mehrzahl für unaufmerksam, gutgläubig, leicht beeinfluss- und verführbar. Sowohl die historische Erfahrung mit Diktaturen als auch Forschung zur Manipulierbarkeit des Gehirns unterstützen diese Einschätzung. Von einem solchen skeptischen Standpunkt her muss es das strategische Ziel sein, Formen der Desinformation – manche sprechen von Fake News – so weit es geht zu unterbinden. Als Schuldige werden häufig die digitalen Plattformen mit ihren auf Reichweite optimierten Geschäftsmodellen identifiziert, die es zu regulieren gelte.

Eine Frage des Menschenbilds 

Wer eher an die Urteilskraft, Lernfähigkeit und Kapazität von Menschen glaubt, sich frei zu entscheiden, betrachtet die Lage gemeinhin entspannter. Die Nutzer von digitalen und anderen Angeboten würden künftig schlicht mehr Skepsis walten lassen, statt alles blind zu glauben, was sich in Text, Bild und Ton über sie ergießt. Diejenigen, denen ein solches Menschenbild stärker zusagt, fühlen sich womöglich Erik Roose zugetan, dem Intendanten des öffentlich-rechtlichen Senders von Estland. Der sagte kürzlich in einem Interview: „Damals zu Sowjetzeiten wusste man: Was in der Zeitung steht, ist zu 100 Prozent Desinformation. Man musste zwischen den Zeilen lesen.“ 

Diese Fähigkeit beherrschen nicht alle Menschen, aber offensichtlich dennoch ein großer Teil der Bevölkerung. Das zeigte sich zum Beispiel in der Covid-19-Pandemie. Die Weltgesundheitsorganisation hatte schon vor einer „infodemic“ gewarnt, bevor sie das Virus im März 2020 zu einer weltweiten Gefahr erklärt hatte. Tatsächlich aber verhielten sich viele Menschen mustergültig und informierten sich bei traditionellen Medienmarken; das Vertrauen in Medien war 2020 sprunghaft gestiegen. 

Allerdings sorgen sich auch eher optimistische Beobachter, dass exponentiell wachsende Desinformation das generelle Vertrauen in Informationen zerstören könnte. Frei nach Hannah Arendt heißt dies: Wenn man annimmt, alles könnte manipuliert sein, glaubt man gar nichts mehr. Ohne eine gesunde Skepsis mündiger Bürgerinnen und Bürger würde Demokratie nicht funktionieren, aber der Übergang kritischer Beobachtung zur Misstrauensgesellschaft ist potenziell fließend. Schon jetzt zeigt sich, dass junge Menschen, die in einer unübersichtlichen Medienwelt aufgewachsen sind, dem, was sie sehen, hören und lesen, weniger vertrauen als frühere Generationen.

Macht der Multiplikatoren

Traditionelle Medien prägen diese Debatte stärker, als sie dies womöglich einräumen würden. Je ausführlicher und drastischer sie über all die Möglichkeiten berichten, mit denen sich Informationen, Dokumente und Medienprodukte verfälschen lassen, umso misstrauischer werden die Nachrichtenkonsumenten. 

Insbesondere Multiplikatoren – zum Beispiel politische Entscheidungsträger und Regulierungsbehörden –, die ihr Profil schärfen wollen, greifen solche Debatten gerne auf. In den vergangenen Jahren ließ kaum eine Grundsatzrede zum Zustand der Demokratie das Thema Fake News unerwähnt. Auf diese Weise beeinflusst das Narrativ der Desinformation das Maß, in dem sich Bürger davon bedroht fühlen. Politiker mit entsprechenden Instinkten erspüren dies. Der Weg von der Sonntagsrede zum Gesetz kann deshalb kurz sein.  

Gleichzeitig wurden Begriffe wie Fake News und Desinformation von politischen Kräften instrumentalisiert, um die Arbeit von seriösen Journalisten und Medien zu diskreditieren. Dahinter steckt Eigennutz: Manches, was recherchiert und publiziert wird, passt ihnen nicht. Vor allem autoritäre und zu autoritärem Gebaren neigende Politiker verwenden Fake News seit ­Jahren als Kampfbegriff gegen die Presse, allen voran der ehemalige US-Präsident Donald Trump. 2019 beklagte der Herausgeber der New York Times, A.G. Sulzberger, dass binnen weniger Jahre mehr als 50 Regierungschefs und Staatspräsidenten auf fünf Kontinenten den Begriff Fake News genutzt hätten, um gegen Medien vorzugehen. 

Der Begriff der Desinformation wurde von politischen Kräften instrumentalisiert, um seriösen Journalismus zu diskreditieren 

Das Thema Falschmeldungen hat in den vergangenen Jahren eine solche Wucht bekommen, dass sich daraus eine Art Desinformations-Bekämpfungs-Komplex entwickelt hat: ein Zusammenspiel von Medien, Geldgebern und Regulierungsorganen, das sich nicht nur positiv auswirkt. So missbrauchen Regierungen die entsprechende Regulierung zuweilen dazu, Presse- und Meinungsfreiheit oder gar Grundrechte einzuschränken.

Zu diesem Schluss kommt eine Studie des Center for News, Technology and Innovation aus Anlass der weltweit 50 Wahlen in diesem Jahr. Bei der Förderung von Medienangeboten fixieren sich große Geldgeber häufig dermaßen auf den Kampf gegen Desinformation, dass Redaktionen Ressourcen für jene Recherchen fehlen, die etwas noch Wichtigeres vollbringen müssen: erst einmal Fakten und Informationen heranzuschaffen, bevor es an das Verifizieren und Entkräften von Falsch­meldungen geht. Bei einem Round-Table zu Desinformation im Ukraine-Krieg 2022 waren sich Teilnehmende sowohl aus der Ukraine als auch aus Russland einig, dass eine unklare Informationslage eine weitaus größere Herausforderung in der Kriegsberichterstattung sei als Falsch­meldungen.

Fake News haben politische Wurzeln

Der Kampf gegen Desinformation setzt zudem häufig an der falschen Stelle an, weil die Kritiker oft Ursache mit Wirkung verwechseln. Das Phänomen Fake News hat politische Wurzeln, die weit in die Zeit vor Social Media zurückreichen. Die sozialen Netzwerke und Tech-Plattformen sind demzufolge keine alleinigen Verursacher gesellschaftlicher Spaltung, sondern vor allem nützliche und wirkmächtige Instrumente, um sie zu verstärken.

Das Ringen um eine vielfältige, von Wissens- und Erkenntnisdurst bestimmte Informationslandschaft muss deshalb auch und insbesondere bei den Ursachen ansetzen, nicht erst bei der Symptombekämpfung. Nur – dem stehen mächtige Interessen entgegen.

Dass Desinformation in der gegenwärtigen Welt zumindest ausreichend Abnehmer findet, hat in erster Linie fünf Ursachen: 

Erstens, politische Polarisierung. Diese ist nicht erst durch die sozialen Netzwerke entstanden, sondern hat ihre Wurzeln in den Protestbewegungen der zweiten Hälfte des vergangenen Jahrhunderts. In dem Maße, in dem Frauen, ethnische Minderheiten und andere benachteiligte Gruppen nach Positionen von Einfluss und Macht griffen, die ihnen vorenthalten wurden, verstärkte sich in den gesellschaftlich dominierenden Schichten die Angst vor dem Bedeutungs- und Kontrollverlust.

Gegenüber denjenigen, die mit neuem Selbstbewusstsein nach Teilhabe riefen, versammelten sich diejenigen, die um ihre Privilegien fürchteten und fortan versuchten, diese zu zementieren. Religiöse Konflikte und Wirtschaftslobbys mit Interesse am Zurückdrängen von Klimapolitik reicherten dieses Gebräu an. Soziale Netzwerke, angetrieben von Geschäftsmodellen der Aufmerksamkeits­ökonomie, erleichterten es den jeweiligen Gruppen, Gleichgesinnte zu finden und Ideologie-Cluster zu bilden.

Verursacht aber hat „Big Tech“ die Spaltung nicht. Eine Arbeit des Berkman Klein Center for Internet & Society an der Har­vard University zeigt, dass zum Beispiel bei der US-Wahl 2016 in erster Linie polarisierende Politiker und traditionelle Medien Desinformation betrieben haben, nicht etwa soziale Netzwerke oder sogenannte Troll-Fabriken, in denen Auftragsarbeiter bewusst Falschmeldungen fabrizieren.

Soziale Netzwerke und Tech-Plattformen sind ­keine alleinigen Verursacher 
gesellschaftlicher Spaltung, sondern wirkmächtige
In­strumente der Verstärkung

Für Osteuropa kommen Vaclav Stetka und Sabina Mihelj in ihrem Buch „The Illiberal Public Sphere. Media in Polarized Societies“ zu einem ähnlichen Schluss: Traditionelle Medien, oft von politischen Interessen korrumpiert, seien die primären Kanäle der Desinformation.         

Zweiter Grund, eine komplexer werdende, sich rasant wandelnde Welt. Diese sogenannte VUCA-Umgebung – kurz für volatile, uncertain, complex, ­ambiguous (flüchtig, unsicher, komplex, mehrdeutig) – gibt Populisten Auftrieb, die mit knackigen Botschaften einfache Lösungen versprechen. Die Kriege in der Ukraine und in Gaza, politische Repression, Fluchtbewegungen, wirtschaftliche Unsicherheit und Klimawandel verängstigen Menschen. Manche sprechen von Polykrisen, ein Konzept, das von dem britischen Historiker Adam Tooze popularisiert wurde. Die neuen Möglichkeiten durch generative KI dürften viele Branchen, Job-Profile und das Bildungssystem verändern und damit noch mehr Menschen verstören. Als Konsequenz sucht manch einer Halt bei charismatischen Führungspersönlichkeiten, Ideologien oder Institutionen, die Stabilität und klare Strukturen versprechen.

Drittens, hybride Kriegsführung mit „information operations“. Dass moderne Kriege nicht nur mit Waffen an der Front, sondern auch über digitale Informationskampagnen mit dem Ziel ausgefochten werden, Gesellschaften zu destabilisieren, ist fast schon Allgemeingut. Insbesondere der Angriff Russlands auf die Ukraine und das weitere Erstarken Chinas haben die geopolitische Polarisierung vorangetrieben.

Das Ausmaß der digitalen Beeinflussung von Wahlen in einem Jahr, in dem fast die halbe Weltbevölkerung in verschiedenen Formen an die Urnen geht, ist derzeit nicht abzuschätzen. Es wäre allerdings verfehlt, die Verantwortung für politische Machtverschiebungen oder das Erstarken bestimmter Kräfte in erster Linie externen Einflüssen zuzuschreiben. Innenpolitische Machtstrukturen oder deren Auflösung dürften Wahlen in weitaus größerem Maße beeinflussen. 

Viertens, die unübersichtliche Nachrichtenvermittlung. Das Erstarken der Online-Plattformen hat das Medien­system aus den Angeln gehoben und die Möglichkeiten des Nachrichtenkonsums von Orten, Zeiten und festen Formaten gelöst. Die Angebote sind deshalb heute zwar vielfältiger als zu Zeiten des linearen Fernsehens und Radios und der Zeitung auf Papier – vom stundenlangen Podcast bis TikTok ist alles dabei. Dafür fühlen sich die Nutzenden aber zunehmend ­verwirrt.

Studien wie „Use the News“ oder „Next Gen News“ belegen dies gerade für die junge Generation. Die informiert sich vor allem in den sozialen Netzwerken, und dort lässt sich im ständigen Fluss von Meldungen zuweilen schwer zuordnen, ob die Nachricht aus einer seriösen Quelle stammt, eine Meinungsbekundung oder womöglich eine Werbebotschaft ist.

Es gibt zwar bislang keine Belege dafür, dass dies junge Menschen anfälliger für Desinformation macht. Im Gegenteil, ältere Generationen, die nicht so versiert im Umgang mit digitalen Angeboten sind, scheinen sich leichter täuschen zu lassen. Aber für Ungeübte ist im Informationsstrom schwer zu erkennen, was glaubwürdiger Journalismus ist. Manche bezweifeln auch, dass man ihn überhaupt braucht. Zudem können Satire oder andere humoristische Formate leicht als Desinformation wahrgenommen werden, wenn sie nicht klar gekennzeichnet sind.

Die Angebote sind im Vergleich zur linearen Zeit so vielfältig, dass die Nutzer zunehmend verwirrt sind 

Fünftens, die technischen Möglichkeiten durch Künstliche Intelligenz. Für diejenigen, die bewusst Desinformationen fabrizieren, sind die derzeit sich wie durch Zellteilung vermehrenden Tools der generativen KI nützliche Werkzeuge. In Sekunden und Minuten lassen sich Videos lippensynchron mit anderen Tonspuren hinterlegen, Pornos mit Gesichtern von Prominenten ausstaffieren, geklonte Stimmen für politische Botschaften einsetzen, bewegte und statische Bilder zu jedem erdachten Inhalt fabrizieren. Der Sicherheitsexperte Jean-Marc Rickli vom Geneva Centre for Security Policy spricht von „Weapons of Mass Disinformation“, analog zu „Weapons of Mass Destruction“. 

Ob Menschen solche Desinformation strategisch im Auftrag anderer oder aus Spaß und Langeweile fabrizieren, ist natürlich politisch relevant. In beiden Fällen ist aber die genaue Wirkung kaum absehbar. Zu den gefürchteten „Deep Fakes“ kommen auch noch die „Cheap Fakes“: nachlässig veränderte Inhalte, die man bei genauerem Hinsehen als solche enttarnen könnte, es aber nicht tut, weil man das, was man sieht, glauben will.

Forschung zufolge nutzen Menschen in sozialen Netzwerken sogar mehr Informationsquellen als ihre Zeitgenossen, die sich traditionell informieren. Nur filtert das Gehirn die Informationen oft so, dass sie zum Weltbild passen. Das Grundproblem liegt also nicht in der KI, sondern im Kopf.

KI braucht Regeln

Dem Problem der Desinformation wird man nur begegnen können, wenn man an allen fünf Punkten ansetzt. Von hinten aufgerollt heißt das: Natürlich brauchen KI-Anwendungen Regeln. Der European AI Act, der im Mai 2024 vom European Council verabschiedet wurde, ist ein sinnvoller erster Schritt. Er teilt KI-Tools in Risikoklassen ein, reguliert dementsprechend ihren Einsatz, und verlangt Transparenz. KI hilft auch denen, die Gutes im Sinn haben: Die Verifizierung von Inhalten wird einfacher – wenngleich Sicherheitsexperten vor einer asymmetrischen Entwicklung warnen. Medienforscher um Felix Simon hingegen argumentierten in einer Analyse 2023, dass Ängste übertrieben ­seien, generative KI würde die Desinformation auf eine neue Stufe heben. Nach wie vor konsumiere nur ein kleiner Anteil der Bevölkerung in großem Maße Falschmeldungen. Vielerorts gebe es demgegenüber ein funktionierendes Mediensystem, das Menschen ermögliche, sich zuverlässig und hochwertig zu informieren. 

Polarisierung und Konflikt statt Konsens war für Medien lange ein lukratives Geschäftsmodell. Statt aber den Zusammenhalt zu stärken, trugen sie zur Spaltung bei

Allerdings ist dieses System angeschlagen. Die früher lukrativen, anzeigenbasierten Geschäftsmodelle funktionieren in der digitalen Welt nur noch bedingt, und die Nachrichtennutzer sind in der Mehrzahl nicht bereit, diesen finanziellen Einbruch aus eigener Tasche auszugleichen. KI-basierte Suchmaschinen lassen zudem befürchten, dass Quellen ­unsichtbar ­werden. Gleichzeitig fühlen sich viele Menschen von einem immer schnelleren und schrilleren Informationsangebot überfordert oder schlicht nicht angesprochen. Besonders Medienhäuser überschätzen oft, wie viel Interesse an Nachrichten in der breiten Öffentlichkeit besteht. Die Nachrichtenmüdigkeit und -abstinenz nimmt zu (s. dazu auch die Grafik auf S. 43).

Stärkung der Medienvielfalt

Gesellschaftliche, politische und wirtschaftliche Akteure müssen deshalb dazu beitragen, den Journalismus, die Medienvielfalt und die Pressefreiheit auf verschiedenen Wegen zu stärken. Menschen brauchen verlässliche, unabhängige Informationen, um gute Entscheidungen treffen zu können. Viele Medienhäuser müssen dazu allerdings umdenken. Für sie war Polarisierung lange ein lukratives Geschäftsmodell. Konflikte verkauften sich besser als Konsens, steile Thesen besser als Nuancen. Statt den Zusammenhalt zu stärken, trugen sie zur Spaltung bei. Im Ringen um eine vertrauenswürdige Informationslandschaft dürfte ein Journalismus, der Menschen zuhört und sich an ihren Bedürfnissen orientiert, wichtiger sein als die besten Fact-Checking-Tools. 

Den anderen hier skizzierten Ursachen für Desinformation – Krieg, Polarisierung, allgemeine Überforderung – lässt sich nur politisch begegnen. Es gilt, Aggressoren zurückzudrängen und politische Konflikte, wo es möglich ist, diplomatisch zu lösen. Die Institutionen von Demokratie und Gesellschaft müssen daran arbeiten, Menschen mit Fakten kompetent zu machen, ihnen nahezubringen, was sie verbindet und so den Zusammenhalt und ihre Resilienz zu stärken. Nur so lässt sich Desinformation der Nährboden ­entziehen.     

Dieser Essay erschien am 24. Juni 2024 als Aufmacher-Stück eines Schwerpunkts in der Zeitschrift Internationale Politik