Warum das Netz voller Hass ist – und was dagegen hilft

Hasskommentare gibt es auch offline, aber soziale Medien verschärfen das Problem. Forscher suchen nach Lösungen – doch die bergen Risiken.

Wenn sich selbst Amerikaner fragen, ob wirklich jede Art von freier Meinungsäußerung erlaubt sein muss, dann ist die Lage ernst. „Hassrede, die nur durch die Buchstabenzahl begrenzt ist“, überschrieb der Medienkolumnist der New York Times ​kürzlich eine Betrachtung zu Twitter und beklagte: Das Portal habe sich innerhalb von zehn Jahren zu einer Dreckschleuder entwickelt.

Er hat recht. Von IS-Terroristen bis hin zu Kindern, die Mitschüler mobben, tummeln sich viele auf solchen Plattformen im Netz, die man dort nicht erwartet hatte und schon gar nicht in dieser Zahl. Um gegen die Flut von Diffamierungen, Mord- und Vergewaltigungsdrohungen anzukommen, sehen schon heute viele Nutzer nur noch die Möglichkeit, ihre Konten zu löschen – was die freie Rede tatsächlich einschränkt, allerdings jene der Opfer.

„Die amerikanische Doktrin war immer: Je mehr Information, desto besser. Aber die unsichtbare Hand, die das regeln soll, funktioniert in der digitalen Welt nicht mehr“, sagt Urs Gasser, Direktor des Berkman Center for Internet and Society an der juristischen Fakultät der Harvard Universität. Das Bild mit Adam Smiths Analogie zur freien Marktwirtschaft passt. Auf dem Marktplatz der Informationen gibt es derzeit ein ähnliches Marktversagen, wie es in der Ökonomie immer wieder auftritt, wenn sich irgendwo zu viel Macht ballt. Aber wer kann die oberste Instanz sein, die dem Hass bei Twitter, Facebook und Co. Grenzen setzt?

Die Institutionen der Demokratie sind mit der digitalen Welt überfordert

Diese Frage beschäftigt auch die Forschung. 600 Wissenschaftler aus 30 verschiedenen Ländern hatten sich in der vergangenen Woche auf der Konferenz der Association of Internet Researchers AoIR in Berlin getroffen, wo das Humboldt Institut für Internet und Gesellschaft sein fünfjähriges Bestehen feierte.

Die Versuche von Behörden und Politik, der Hassrede Herr zu werden, zeigen, dass die traditionellen und aus gutem Grund behäbigen Institutionen der Demokratie mit der digitalen Welt überfordert seien. Die Flut der Verstöße gegen Recht und Menschenwürde im Netz, lässt sich von Polizei und Justiz kaum abarbeiten. Recht und Regulierung seien für die Industriegesellschaft gemacht, sagt Gasser, sie reichten nicht mehr aus.

Nun wäre es schön, könnte man, um im Bild zu bleiben, in eine Art politischen Baumarkt gehen und jene fehlenden Werkzeuge kaufen. Nur verändert sich die Netzwelt in solch nie da gewesener Geschwindigkeit, dass man derzeit nur durch Versuch und Irrtum lernen kann, was auf welche Weise wirkt. Ein Fortschritt ist: Es gibt jetzt wenigstens Versuche.

Facebook und Google wollen keine Verantwortung für Inhalte übernehmen

Regierungen nehmen sich des Problems an, der deutsche Justizminister ist dabei, Gerichte zeigen Profil. Und auch die Privatwirtschaft bewegt sich. Viel zu lange hatten sich die Großen der Datenwelt, vor allem Facebook und Google, geweigert, die Verantwortung für Inhalte zu übernehmen, die über ihre Plattformen verbreitet werden. Auch wenn sie sich bisher nur zögerlich um das Problem kümmern.

Das muss niemanden wundern, denn ihr Geschäftsmodell ist es, Masse zu machen. „Facebook begünstigt die Eskalation, denn was besonders viel geliked wird, stellt der Algorithmus nach oben“, sagt Cornelius Puschmann. Und mit „gefällt mir“ markiert wird eben häufig, was platt, plakativ oder ein Scherz auf Kosten Dritter ist. Puschmann leitet das Projekt „Networks of Outrage“, das untersucht, wie rechtspopulistische Bewegungen in Europa im Netz kommunizieren. Die internationale Vernetzung der rechten Hass-Verbreiter sei stärker als vermutet, sagt Puschmann. Wie also kann man dem entgegentreten?

Berkman-Direktor Gasser sieht vor allem drei wichtige Ergänzungen. Zum ersten sind es technologische Lösungen, ohne die es ob der schieren Menge der Kommunikation gar nicht mehr geht. Zweitens gebe es „Nudging“, also die Beeinflussung von Verhalten zum Beispiel durch Design, in diesem Fall von Plattformen. Schafft ein Smiley gute Laune, mobilisiert ein erhobener Daumen, wie viel kann man wo kommentieren, und welche Möglichkeiten gibt es, sich zu wehren? Fragen, die sich jedes soziale Netzwerk stellen muss. Als dritten Punkt nennt Gasser internet literacy, also Bildung. Schon Kinder müssten lernen, gute von schlechten Quellen zu unterscheiden und wissen, was sich im Netz gehört.

Wer kontrolliert die Algorithmen?

Alle drei Werkzeuge sollten tatsächlich zur Grundausstattung des Medienumgangs gehören. Auch wenn sie ihre Tücken haben. Ja, Algorithmen können das Schlimmste aus den Netzwerken herausfiltern. Sie sind wie Siebe, in denen aber leider auch manches hängen bleibt, was hätte durchfließen sollen. Kürzlich zum Beispiel fischte der Facebook-Filter das ikonografische Foto des nackten, schreiend flüchtenden Mädchens im Vietnam-Krieg heraus, die norwegische Zeitung Aftenposten hatte es bringen wollen. Deren Chefredakteur schrieb daraufhin einen offenen Brief an Facebook-Chef Mark Zuckerberg mit dem Vorwurf: „Sie missbrauchen Ihre Macht!“

Denn eine der großen Fragen in der digitalen Welt ist: Wer kontrolliert die Algorithmen? Wer kann sie verändern, oder verändern sie sich selbst – und wer versteht sie dann noch? Algorithmen sind nicht transparent. Sie basieren auf Daten, die über Verhalten und Gewohnheiten erhoben werden, deshalb schreiben sie aber eher die Vergangenheit fort, bilden Stereotype und eben auch schlechte Gewohnheiten ab, statt positive Impulse zu setzen. Und die Besitzer der Daten sind überwiegend Konzerne. Ist das alles noch demokratisch?

Menschen werden nicht überzeugt, sondern manipuliert

Heute werde nicht mehr nur in Parlamenten über die Gestaltung der Gesellschaft entschieden, sondern auch in den Geschäftsbedingungen und Algorithmen der Plattform-Konzerne, sagt Jeanette Hofmann, Direktorin des HIIG. „Manche sagen, das ist eine neue Form der Repräsentation der Gesellschaft, die sich nicht auf Meinungen bezieht, sondern auf Verhalten. Aber die Daten werden hinter unserem Rücken ermittelt.“

Ein ähnliches Problem sieht sie beim Thema „Nudging“. Positives Verhalten folgt nicht mehr auf Aufklärung und Debatte, sondern wird nur noch von Design provoziert, oder wie es Hofmann sieht: „Menschen werden nicht überzeugt, sondern manipuliert.“ Zwar gab es diese Anreize schon immer, sie sind auch sehr wirkungsvoll. Manchmal konterkarieren sie erklärte Politik. So beobachtet man seit Jahrzehnten, dass zusätzliche Spuren auf der Autobahn mehr Verkehr anziehen, auch wenn Bürger schon ebenso lange zum Umstieg auf die Bahn motiviert werden sollen.

Technologische Lösungen allein werden allerdings ohnehin nicht ausreichen, um Hassrede und den Missbrauch von Freiheit einzudämmen. Deshalb sind frühe Bildung, eine ständige Diskussion über Werte und die demokratische Debatte zentral, wenn es darum geht, das digitale Leben zu gestalten. Denn durch diese Debatten entstehen erst jene Experimente, mit denen man sich langsam vorantasten kann auf dem Weg in eine faire vernetzte Welt.

In jedem Land gelten andere Standards für Hatespeech

Wird es die globalisierte Welt der grenzenlosen Kommunikation sein, wie man sich das in den frühen Tagen des Internets erträumt hatte? Gasser beobachtet einen „Rückeroberungsversuch“ der Nationalstaaten. China arbeite an einem eigenen Internet, selbst aus Brasilien und Deutschland komme immer wieder der Wunsch, das Netz national zu prägen. Die Gefahr eines fragmentierten Internets sei real. Ein allein amerikanisch dominiertes Netz kann aber keine Lösung sein – zumindest nicht für alle Bürger außerhalb Amerikas.

Hofmann findet, die Rückbesinnung auf eigene Werte habe auch etwas Gutes: „Was ist Hassrede und was nicht – das gehört zu den Themen, die national kulturell geprägt werden.“ Damit hat sie einen Punkt. Steht in Deutschland die Verwendung von Nazi-Symbolen unter Strafe, sind in den USA nackte Brüste verpönt, in Thailand ist die Kritik am König ein Tabu – eine Vielfalt, die bleiben wird.

Auch bleiben wird jene Erkenntnis: Demokratie ist national verankert, sie muss vor Ort erkämpft, erhalten und entwickelt werden. Und den einen gemeinsamen Mindeststandard, den gibt es längst: die Menschenrechte. Würde jeder sie achten, wäre Hassrede ein geringeres Problem.

Dieser Beitrag erschien zuerst in der Süddeutschen Zeitung