Es gehe vor allem darum, »sinnstiftende Verbindungen unter Freunden zu fördern«, hatte Mark Zuckerberg gesagt. Mit diesen Worten begründete der Facebook-Chef offiziell, dass der Algorithmus des Plattformunternehmens Beiträge von Privatleuten bald höher bewerten würde als jene von Medien. Das Ergebnis zeigte sich prompt. Während die Nutzer/innen nach wie vor viel Zeit in den digitalen sozialen Netzwerken verbringen, stoßen sie dort nun auf deutlich weniger Journalismus, wie der Digital News Report des Reuters Instituts for the Study of Journalism der Universität Oxford ergab.
Dies ist nur ein Beispiel das zeigt: Die Macht der Techkonzerne über unser Leben ist gewaltig und sie wächst. Wenn Facebook am Algorithmus schraubt, sehen wir andere Beiträge von Freunden und Fremden. Wenn Google das Gleiche tut, erscheinen Suchergebnisse in veränderten Reihenfolgen. Und Amazon prägt nicht nur unsere Einkaufs- oder Musikpräferenzen, es wird sich – wie die Wettbewerber – mithilfe von omnipräsenten Sprachassistenten massiv in unser Leben einschleichen. Software, meist aus den Schmieden mächtiger Konzerne, beeinflusst aber nicht nur unsere Vorlieben und unser Verhalten. In Form von künstlicher Intelligenz wird sie mit uns darum konkurrieren, wer welche Aufgaben im Alltag erledigen wird: Maschine oder Mensch.
Müssen wir uns davor fürchten? Immerhin nehmen uns Roboter stupide Arbeiten ab, Suchmaschinen liefern uns mehr Antworten, als uns Fragen einfallen, und Autopiloten haben das Fliegen sicherer gemacht als eine Autofahrt ins Büro. Ginge es der Menschheit also nicht besser, wenn sie ihre Probleme den großen Softwarefabriken anvertraute, um sie von Algorithmen lösen zu lassen? Schließlich können diese auf (fast) unendlich viel mehr Daten zurückgreifen und sind dabei weniger störanfällig als das menschliche Gehirn.
Allerdings glauben nicht einmal die Protagonisten des Silicon Valley, dass künstliche Intelligenz nur harmlos ist. Tesla-Gründer Elon Musk formulierte seine Bedenken einmal so: »Wir bewegen uns entweder in Richtung Superintelligenz oder auf das Ende der Zivilisation zu.« Nun ist Alarmismus selten hilfreich. Szenarien, in denen Roboter die Macht an sich reißen und die Menschheit auslöschen, passen deutlich besser in Science-Fiction-Lektüre als in die reale Welt. Aber das ist noch lange kein Grund, sich in das kleine Glück der Bequemlichkeit zu flüchten und die Entwicklung der Digitalisierung hinzunehmen wie das Wetter. Denn Software wird von Menschen gemacht und eingesetzt. Wir Menschen müssen deshalb dafür Verantwortung übernehmen.
Optimierung für die breite Masse
Die Algorithmen selbst sind dabei erst einmal nicht mehr als Rechenoperationen, wenn man so will, die Gehirnströme des Computers. Sie rechnen aus, wie wir am besten von A nach B kommen, geben uns Buchempfehlungen und können aus vier Zutaten ein Rezept komponieren. Sie steuern Rasenmäher wie Drohnen, helfen bei der Partnerwahl und könnten Hochleister bei der Diagnose von Krankheiten werden. Allerdings sortieren sie auch Bewerber/innen für Jobs oder Bankkredite aus. Sie fällen also wichtige Urteile darüber, wie viel Vertrauen ein Mensch verdient. 2017 hat das amerikanische Forschungsinstitut PEW Research 1.500 Fachleute zu ihrer Meinung über künstliche Intelligenz befragt. 38 % meinten, dass in einer von Algorithmen getriebenen Welt die Vorteile überwiegen werden, 37 % waren vom Gegenteil überzeugt. Der Rest sagte, beides würde sich die Waage halten. Aber eines besorgte alle: dass Menschen Verantwortung nur zu gerne an Software abtreten. Und das muss schiefgehen.
Dabei spielt es keine Rolle, in welchem der beiden Systeme man sich bewegt, die sich derzeit in der digitalen Welt herauskristallisieren. Das eine ist das amerikanische, von kommerziellen Interessen getriebene, das den nimmersatten Konsumenten erschaffen möchte. Das andere das chinesische, hinter dem ein autoritärer Staat steckt, dessen Vision der ideal ans System angepasste Staatsbürger ist. In beiden Welten verschwindet zunehmend die Freiheit, wie wir sie kennen.
Dort, wo wir rund um die Uhr über allerlei Geräte mit Supercomputern vernetzt sind, wo nicht nur Smartphones sondern auch »intelligente« Uhren, Kleidung, Häuser, Autos und bald vieles mehr im Minutentakt Daten über unser Verhalten sammeln und senden, lässt sich schon qua Logik das nicht mehr sicherstellen, was wir bislang unter Freiheit verstehen: einigermaßen unbeobachtet von staatlicher oder kommerzieller Kontrolle experimentieren, diskutieren, Ideen haben, uns bewegen, konsumieren, Beziehungen pflegen, ja lieben. Dort, wo mindestens zwei große Garanten der Freiheit – Bargeld und Landkarten – von Bezahl-Apps und Ortungssystemen abgelöst werden, wo intime Gespräche zunehmend von elektronisch dokumentierten Chats ersetzt werden, wird Freiheit eine andere Gestalt bekommen. Und dort, wo Algorithmen uns mindestens sanft beeinflussen, uns aber auch konkret steuern können, wandelt sich das Bild von Freiheit immens.
In einer von Algorithmen getriebenen Welt gelten wichtige Gesetzmäßigkeiten. Erstens, Effizienz geht vor Fairness. Algorithmen empfehlen, was für die Masse gilt, nicht für den Einzelnen. Zwar können sie Vorschläge je nach Datensatz individualisieren, aber generell rechnen sie in Wahrscheinlichkeiten. Der Schutz Einzelner zählt wenig, besondere Lebensumstände werden nicht berücksichtigt. Nun ist das Leben ohne Algorithmen auch nicht fair, der »Nasenfaktor«, also letztlich das Gefühl bestimmt viele Entscheidungen. Aber in der Demokratie ist der Schutz des Individuums ein hohes Gut, jeder hat ein Recht auf ein faires Verfahren, selbst Verbrecher.
Vergangenheit siegt über Zukunft
Weil sich Algorithmen auf vorhandene Daten stützen, sind sie kondensierte Stereotype – es sei denn, sie werden anders programmiert. Ist zum Beispiel eine Stelle für Ingenieure ausgeschrieben, sind bislang erfolgreiche Ingenieure die Blaupause. Männliche Kandidaten haben deshalb bessere Chancen. Von Algorithmen gesteuerte Prozesse produzieren keine Innovationen. Sie funktionieren nach dem Grundsatz »weiter wie bisher, nur effizienter«. Anders ausgedrückt: Wer sich damit beschäftigt, das Fax besser zu machen, wird nie die E-Mail erfinden. Außerdem machen sie faul. Statt Neues auszuprobieren und selbst zu denken, verlässt man sich auf mundgerecht servierte Lösungen. »Künstliche Intelligenz kann niemals etwas erschaffen, das sich Menschen vorher nicht ausgedacht haben«, sagt die Soziologin Gina Neff vom Oxford Internet Institute.
Die US-amerikanische Mathematikerin Cathy O’Neil illustriert in ihrem Buch Angriff der Algorithmen, wie diese auf Kosten der Armen arbeiten: Firmen platzieren mithilfe von Software Werbung für zweifelhafte, überteuerte Produkte gezielt bei Menschen, die sie als anfällig identifizieren. Die elektronischen Werkzeuge sortieren Bewerber um Jobs oder Kredite nach Wohnbezirken; wohl dem, der eine ordentliche Postleitzahl hat. Ganz zu schweigen von den Auswirkungen künstlicher Intelligenz auf den Arbeitsmarkt. Wissenschaftler haben ausgerechnet, dass es noch 125 Jahre dauern wird, bis menschliche Arbeitskraft vollkommen durch Maschinen ersetzt wird, aber viele Jobs wie Lkw-Fahrer, Verkäufer oder Call-Center-Agent könnten schon bald verschwinden.
Anders ausgedrückt: Laut gewinnt immer. Das Phänomen kennt man von Google, elektronischen Kaufhäusern oder Hotelportalen. Sucht man nach einem Produkt, werden einem die beliebtesten vorgeschlagen. Viele greifen dann zu. Damit macht man starke Produkte stärker, die schwächeren verschwinden. Algorithmen können deshalb die Gesellschaft spalten. Der Echokammer-Effekt ist dem Blockbuster-Effekt sehr ähnlich. Algorithmen kalkulieren, welche Nachrichten jemanden besonders interessieren könnten und versorgt ihn bevorzugt damit. Tatsächlich nutzen Menschen zwar mehr Informationsquellen als früher, sie sortieren Meldungen aber eher nach ihren Präferenzen. Zum Beispiel können sich rechte Gruppierungen verstärkt international vernetzen und Meinungen, die manch einem früher peinlich waren, sind heute salonfähig.
Einige dieser Mechanismen stehen der Demokratie entgegen. Zunächst einmal regiert in der Demokratie nicht der Lauteste, der Blockbuster. Die Gewaltenteilung, ein austariertes System von »checks and balances«, also aus Überprüfung und Ausgleich, sorgt dafür, dass auch Minderheiten und Schwache geschützt werden und ihre Bürgerrechte ausüben können. Hinzu kommt das Prinzip der Repräsentation: Auch wer sich nicht ständig beteiligt, bewertet, abstimmt, hat Rechte, die ihm nicht genommen werden können. Privatsphäre und der Schutz der Menschenwürde sind die Lebensgrundlagen der Demokratie, Datenschutz ist deshalb zentral.
Ganz wichtig: In der Demokratie gibt es nicht die eine »beste« Lösung, die von einem Algorithmus ausgerechnet werden kann. Es geht immer um die tragfähigste Lösung, die ausgehandelt werden muss. Das ist die Logik der Politik. Zum Beispiel fühlt sich der eine frei, wenn er eine Zigarette rauchen kann, der andere, wenn er den Rauch nicht ertragen muss. Die Freiheit des einen endet immer dort, wo die des anderen beginnt. Das Tempo der digitalen Welt steht der Demokratie entgegen. Letztere ist mit voller Absicht langsam, von Versuch und Irrtum geprägt. Ihr Verständnis von Effizienz hat nichts mit Geschwindigkeit zu tun. In der Demokratie gibt es Brüche, Rückschritte, aber auch Durchbrüche in neue Zeiten. Kein Algorithmus hätte je den Mauerfall herbeigeführt. Demokratie ist von Menschen für Menschen gemacht, nicht für Maschinen.
Wichtigste Aufgabe muss es deshalb sein, die Macht der Monopole einzuschränken, ob das nun mächtige Konzerne oder starre Autokratien sind. Und es gilt, das Effizienzdiktat zu brechen. Wenn wir Menschen mit dem Computer um Effizienz konkurrieren wollen, haben wir schon verloren, in dieser Disziplin wird uns der Rechner immer schlagen. Wir müssen in der digitalen Welt menschliche Stärken ausspielen: Fantasie, Intuition, Empathie, Kooperation über Grenzen und Gegensätze hinweg, die Fähigkeit, auch mal größer und anders zu denken. Nur so lässt sich aus Krieg Frieden schaffen, aus Zerstörung Schöpfung, aus Einfalt jene Vielfalt, die uns stark macht.