{"id":2241,"date":"2025-12-07T16:49:37","date_gmt":"2025-12-07T15:49:37","guid":{"rendered":"https:\/\/alexandraborchardt.com\/?p=2241"},"modified":"2025-12-07T16:49:37","modified_gmt":"2025-12-07T15:49:37","slug":"ki-washing-wer-jetzt-keine-moral-hat-entwickelt-keine-mehr","status":"publish","type":"post","link":"https:\/\/alexandraborchardt.com\/de\/ki-washing-wer-jetzt-keine-moral-hat-entwickelt-keine-mehr\/","title":{"rendered":"KI-Washing: Wer jetzt keine Moral hat, entwickelt keine mehr"},"content":{"rendered":"\n<p style=\"font-weight: 400;\">Auf den ersten Blick sind viele Medienh\u00e4user das Thema KI nahezu vorbildlich angegangen. Man kam schnell in den Tritt, experimentierte, bildete interdisziplin\u00e4re Teams, ernannte KI-Direktoren und, man hat schlie\u00dflich Verantwortung, entwickelte Ethik-Regeln. Nat\u00fcrlich konnte sich die Branche auch \u00fcber ein paar moralische Ausrei\u00dfer emp\u00f6ren \u2013 \u201eSports Illustrated!\u201c, \u201eMichael Schumacher Interview!\u201c, \u201eBurda-Kochzeitschrift!\u201c \u2013, aber vielerorts sollten l\u00e4ngliche Listen zu \u201eDos and Don\u2019ts\u201c das Gr\u00f6bste verhindern. Schade nur, dass sich die meisten dieser Regelwerke schon bald als eine Form von KI-Washing erweisen d\u00fcrften. Denn sie gaukeln eine Kontrolle vor, die den Medienh\u00e4usern schon lange aus den H\u00e4nden geglitten ist. Kurz gesagt: Wer jetzt keine Moral hat, entwickelt keine mehr.<\/p>\n<p style=\"font-weight: 400;\">Die Langversion ist: Der rasante technische Fortschritt und die Macht der Tech-Konzerne gepaart mit wirtschaftlichem und mancherorts politischem Druck haben Tatsachen geschaffen, denen selbst vorbildliches Management nur schwer beikommen kann. Dies legt die Recherche zu dem Report &#8222;<a href=\"https:\/\/www.ebu.ch\/guides\/open\/report\/news-report-2025-leading-newsrooms-in-the-age-of-generative-ai\">Leading Newsrooms in the Age of Generative AI<\/a>&#8220; nahe, den ich f\u00fcr die European Broadcasting Union recherchiert und geschrieben habe.<\/p>\n<p style=\"font-weight: 400;\">Da ist zun\u00e4chst einmal das Thema \u201eShadow AI\u201c. Die gr\u00f6\u00dften Ver\u00e4nderungen w\u00fcrden derzeit nicht von Medienh\u00e4usern angesto\u00dfen, sondern entst\u00fcnden dadurch, dass Journalisten KI-Tools einfach nutzten, beobachtet Ezra Eeman, KI-Direktor des niederl\u00e4ndischen Broadcasters NPO. Anders als vor 25 Jahren, als man Redakteure und Reporter noch m\u00fchevoll vom Sinn digitaler Tools und Plattformen \u00fcberzeugen musste, sind KI-Werkzeuge so intuitiv zu bedienen, dass Menschen sie im Privatleben noch h\u00e4ufiger anwenden als bei der Arbeit, wie eine <a href=\"https:\/\/imaginingthedigitalfuture.org\/reports-and-publications\/close-encounters-of-the-ai-kind\/close-encounters-of-the-ai-kind-main-report\/\">j\u00fcngst ver\u00f6ffentlichte Studie<\/a>zumindest mit Blick auf die USA ergab. Ein <a href=\"https:\/\/www.trust.org\/resource\/ai-revolution-journalists-global-south\/\">Report der Thomson Reuters Foundation<\/a> st\u00fctzt die These f\u00fcr Journalisten im Globalen S\u00fcden: 80 Prozent der Befragten nutzten KI bei der Arbeit, aber noch nicht einmal 20 Prozent von deren Redaktionen hatte eine entsprechende Strategie oder Politik. Dabei k\u00f6nnen in Organisationen beide Gruppen zum Problem werden: die Techies, die beim Experimentieren Grenzen \u00fcberschreiten, und die Unbedarften, die aus Unkenntnis Fehler machen, zum Beispiel sensible Daten preisgeben.<\/p>\n<h2>Von Journalisten, die so unter Zeitdruck stehen, dass sich manche noch nicht einmal aufs Klo trauen, kann man nicht erwarten, dass sie alle KI-Regeln verinnerlicht haben.\u00a0<\/h2>\n<p style=\"font-weight: 400;\">Hinzu kommt, dass viele Ethik-Richtlinien nicht alltagstauglich sind. Die BBC ist sicher stolz darauf, dass sie <a href=\"https:\/\/www.bbc.co.uk\/editorialguidelines\/guidance\/use-of-artificial-intelligence\">ihre aktuelle Guidance zu KI in nur neun Punkten<\/a> untergebracht hat \u2013 zuz\u00fcglich Unterpunkten. Aber von Redakteuren, die in ihren Schichten so unter Zeitdruck stehen, dass sich manche noch nicht einmal aufs Klo trauen, kann man nicht erwarten, dass sie alle Vorschriften verinnerlicht haben. Die Arbeitsbelastung dr\u00e4ngt Journalisten vermutlich eher st\u00e4rker in die Anwendung von KI. So, wie bislang streckenweise Text aus der dpa-Meldung herhalten musste, wird k\u00fcnftig ein LLM zurate gezogen, wenn sich damit Zeit sparen l\u00e4sst.<\/p>\n<p style=\"font-weight: 400;\">Besonders schwer durchzuhalten ist die derzeit beliebteste Regel: \u201eHuman in the loop\u201c \u2013 ein Mensch sollte den letzten Blick auf KI-generierte Inhalte haben, bevor sie publiziert werden. Schon im regul\u00e4ren Betrieb \u00fcbersehen Redakteure Fehler. Wenn KI-Tools die Output-Geschwindigkeit vervielfachen, kommen Menschen kognitiv an ihre Grenzen. Und sollten sie dennoch sorgf\u00e4ltig arbeiten, verhindern sie zwangsl\u00e4ufig die von der Gesch\u00e4ftsf\u00fchrung erhofften Effizienzgewinne. Das \u201eHuman in the Loop\u201c-Prinzip sabotiere die Skalierbarkeit, die man sich von KI erhoffe, schreibt Felix Simon in einem <a href=\"https:\/\/reutersinstitute.politics.ox.ac.uk\/news\/neither-humans-loop-nor-transparency-labels-will-save-news-media-when-it-comes-ai\">Kommentar f\u00fcr das Reuters Institute<\/a>.<\/p>\n<p style=\"font-weight: 400;\">Im Zweifel winden sich Redaktionen mit Disclaimern aus der Vorgabe heraus. Man kennzeichne Inhalte, die mit KI \u00fcbersetzt oder produziert seien, hei\u00dft es dann, auf Deutsch: Man \u00fcbernehme keine Verantwortung f\u00fcr Fehler. Das kann gut gehen und wird in einigen F\u00e4llen vom Publikum akzeptiert, zum Beispiel beim Untertiteln von TV-Beitr\u00e4gen. Da \u00fcberwiegt der Wunsch nach Verst\u00e4ndlichkeit, zum Beispiel bei H\u00f6rgesch\u00e4digten. Es kann aber auch Mist herauskommen, wie bei Texten der Washington Post, die in <a href=\"https:\/\/uebermedien.de\/101728\/qualitaetsjournalismus-als-haette-man-ihn-bei-temu-bestellt\/\">Publikationen der Ippen-Gruppe von einer KI \u00fcbersetzt und verbreitet werden<\/a>. Au\u00dferdem gibt es auch im hochwertigen Journalismus Anwendungsf\u00e4lle, in denen starre Regeln nicht helfen. Verbiete man zum Beispiel generell geklonte Stimmen, verbaue man sich erz\u00e4hlerische M\u00f6glichkeiten. Auch \u00f6ffentlich-rechtliche Sender haben schon Stimmklone von historischen Protagonisten genutzt, um Zeitgeschichte anschaulicher zu machen. \u00a0\u00a0\u00a0<\/p>\n<p style=\"font-weight: 400;\">In all diesen F\u00e4llen helfen keine im Intranet geparkten Richtlinien. Wirkungsvoller ist eine Mischung aus technischen L\u00f6sungen, Schulungen und Debatten: Gew\u00fcnschte Anwendungen m\u00fcssen im CMS automatisiert werden. Bei Experimenten und in Trainings k\u00f6nnen die Nutzenden KI-Wissen und den Umgang damit erwerben. Und wer regelm\u00e4\u00dfig \u00fcber Werte redet, auch in durchaus strittigen F\u00e4llen, denkt wom\u00f6glich \u00f6fter dar\u00fcber nach und handelt entsprechend. Mitarbeitern bei jedem Recherche- und Produktionsschritt auf die Tastatur zu schauen, hat im Journalismus noch nie funktioniert. Jeder Einzelne muss seinen Werte-Kompass selbst kalibrieren und ihm folgen.<\/p>\n<h2>Kein KI-Tool wird fehlendes Vertrauen ersetzen k\u00f6nnen. Aber ein gedankenloser Einsatz von KI kann m\u00fchsam aufgebautes Vertrauen zerst\u00f6ren<\/h2>\n<p style=\"font-weight: 400;\">Das nutzt allerdings wenig, wenn die F\u00fchrungsetage keinen hat. Der Besitzer der <em>Los Angeles Times<\/em> zum Beispiel hatte k\u00fcrzlich verf\u00fcgt, die Redaktion m\u00fcsse Kommentare mit einem <a href=\"https:\/\/www.theguardian.com\/commentisfree\/2025\/mar\/05\/los-angeles-times-ai-bias-trump\">Werkzeug namens <em>Bias Meter<\/em>versehen<\/a>. Die KI weist Leser automatisch auf Gegenpositionen hin. Offensichtlich wird der Output nicht von Menschen gegengelesen. Sonst w\u00e4re wom\u00f6glich doch jemandem aufgefallen, dass die Maschine den Ku Klux Klan in etwas zu sanftes Licht getaucht hatte. Aber das sind Details. Kein KI-Tool wird fehlendes Vertrauen ersetzen k\u00f6nnen. Aber ein gedankenloser Einsatz von KI kann m\u00fchsam aufgebautes Vertrauen zerst\u00f6ren \u2013 in der Belegschaft und beim Publikum.<\/p>\n<p style=\"font-weight: 400;\">Was Ethik-Regeln in Medienh\u00e4usern allerdings g\u00e4nzlich obsolet machen k\u00f6nnte, ist die \u00dcbermacht der Tech-Konzerne. Je mehr KI in allen Tools steckt, die jeder im Alltag nutzt, umso weniger werden Anwender die dahinterliegenden Werte hinterfragen. Dass die Smartphone-Kamera den Himmel immer etwas blauer macht als jenen, den man vor sich sieht \u2013 geschenkt. Dass Suchmaschinen die Antworten dank KI immer leichter verdaulich machen \u2013 angenehm. Dass Textverarbeitungsprogramme zunehmend zu Redakteuren werden, bevor ein Redakteur das St\u00fcck gesehen hat \u2013 warum nicht? Nur die gro\u00dfen H\u00e4user werden es sich leisten k\u00f6nnen, die eigenen Standards in ihren Systemen zu hinterlegen, und wom\u00f6glich sind auch die mit KI infiltriert. Der Rest arbeitet mit Office und Co..<\/p>\n<p style=\"font-weight: 400;\">Das alles muss nicht schlecht sein. Autopiloten haben den Luftverkehr um ein Vielfaches sicherer gemacht, autonomes Fahren wird das Gleiche auf den Stra\u00dfen erreichen. Wom\u00f6glich schafft es auch der KI-unterst\u00fctzte Journalismus, das Niveau des Gesamt-Outputs ordentlich anzuheben. Nach den Verw\u00fcstungen des Reichweiten-Zeitalters ist das bei manchen Publikationen gar nicht so schwer. KI-Tools k\u00f6nnen irgendwann wom\u00f6glich sogar dabei helfen, Ethik-Regeln zu implementieren. Entscheidend ist, wessen Regeln das sein werden.<\/p>\n<p><em>Diese Kolumne erschien <a href=\"https:\/\/medieninsider.com\/kolumne-alexandra-borchardt-ki-washing-wer-jetzt-keine-moral-hat-entwickelt-keine-mehr\/25273\/\">bei Medieninsider am 17. M\u00e4rz 2025<\/a>. Neue und \u00e4ltere Kolumnen kann man dort mit einem Abo lesen.\u00a0<\/em><\/p>\n\n\n","protected":false},"excerpt":{"rendered":"<p>Auf den ersten Blick sind viele Medienh\u00e4user das Thema KI nahezu vorbildlich angegangen. Man kam schnell in den Tritt, experimentierte, bildete interdisziplin\u00e4re Teams, ernannte KI-Direktoren und, man hat schlie\u00dflich Verantwortung, entwickelte Ethik-Regeln. Nat\u00fcrlich konnte sich die Branche auch \u00fcber ein paar moralische Ausrei\u00dfer emp\u00f6ren \u2013 \u201eSports Illustrated!\u201c, \u201eMichael Schumacher Interview!\u201c, \u201eBurda-Kochzeitschrift!\u201c \u2013, aber vielerorts sollten &hellip; <\/p>\n<p class=\"link-more\"><a href=\"https:\/\/alexandraborchardt.com\/de\/ki-washing-wer-jetzt-keine-moral-hat-entwickelt-keine-mehr\/\" class=\"more-link\"><span class=\"screen-reader-text\">\u201eKI-Washing: Wer jetzt keine Moral hat, entwickelt keine mehr\u201c <\/span>weiterlesen<\/a><\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[1034,1038,34,51,427,888,1035,52,1032,27,1030,60,1037,1031,153,1036,920,1033,879,111,63],"class_list":["post-2241","post","type-post","status-publish","format-standard","hentry","category-unkategorisiert","tag-arbeitsbelastung","tag-autopiloten","tag-digitalisierung","tag-ethik","tag-european-broadcasting-union","tag-felix-simon","tag-human-in-the-loop","tag-journalismus","tag-journalistische-standards","tag-ki","tag-ki-guidelines","tag-medien","tag-medienhaeuser","tag-moral","tag-reuters-institute","tag-richtlinien","tag-tech-konzerne","tag-thomson-reuters-foundation","tag-tools","tag-vertrauen","tag-werte"],"acf":[],"_links":{"self":[{"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/posts\/2241\/"}],"collection":[{"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/posts\/"}],"about":[{"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/types\/post\/"}],"author":[{"embeddable":true,"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/users\/3\/"}],"replies":[{"embeddable":true,"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/comments\/?post=2241"}],"version-history":[{"count":1,"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/posts\/2241\/revisions\/"}],"predecessor-version":[{"id":2242,"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/posts\/2241\/revisions\/2242\/"}],"wp:attachment":[{"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/media\/?parent=2241"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/categories\/?post=2241"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alexandraborchardt.com\/de\/wp-json\/wp\/v2\/tags\/?post=2241"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}