Die Sache ist außer Kontrolle geraten. Die Moderatoren von Facebook müssen etwa zehn Millionen Beiträge prüfen. Pro Woche. In sieben Tagen zehn Millionen Mal die Frage: Hass oder nicht? Löschen oder lassen? Welche Probleme das mit sich bringt, davon hat man nun vor dem Oldenburger Landgericht einen Eindruck bekommen. Aus Sicht der Richter hat Facebook den Beitrag eines Delmenhorster AfD-Politikers zu Unrecht gelöscht. Was bedeutet ein Oldenburger Urteil gegen ein globales Unternehmen? Zunächst: Es ist ein gutes Zeichen, dass Gerichte eingreifen, wenn ein überforderter Multimilliarden-Konzern die Meinungsfreiheit nach selbst gewählten Kriterien auslegt.
Im April sagte Facebook-Chef Mark Zuckerberg der ARD: „Ich glaube nicht, dass ein einzelnes Unternehmen so viele Entscheidungen wie wir treffen sollte, was jetzt genau Hass-Rede und politische Meinungsäußerung darstellt.“ Er hat nur teilweise Recht. Man hätte Facebook viel früher zur Verantwortung ziehen müssen. Und nun, wo der Konzern endlich Verantwortung annimmt, muss das Löschen von Beiträgen strenger kontrolliert werden. Muss es genaueren gesetzlichen Vorgaben unterliegen als bisher, verständlichen Standards, die für alle einsehbar sind. Muss es einfacher sein, sich gegen vorschnelles Löschen zu wehren.
Mehr als zwei Milliarden Menschen nutzen Facebook regelmäßig. Zur Wahrheit gehört, dass die Plattform auch deshalb so groß wurde, weil sie den Hass nicht zähmte, sondern zuließ. Es geht Facebook darum, dass Nutzer möglichst lange auf der Seite bleiben und möglichst oft wiederkommen. Und das gelingt mit extremen Inhalten am besten. Studien zeigen, dass sich Falschnachrichten und Hetze deutlich schneller verbreiten als gewöhnliche Beiträge. Trotzdem vertraute Facebook lange auf eine unsichtbare Hand: Hassbeiträge würden schon von alleine verschwinden, weil sie kaum wer anklicke und die Algorithmen sie daraufhin ignorierten. Man kann das für Technikoptimismus halten. Oder für Berechnung.
Die Plattform wuchs und wuchs, während man im Silicon Valley Glückwünsche entgegennahm und gleichzeitig so tat, als trage man keine Verantwortung für die Inhalte, die Facebook groß machten. Schließlich wolle man sich nicht als „Schiedsrichter der Wahrheit“ aufspielen. Die Ausrede zog eine Weile. Dann folgte die Manipulation bei den US-Präsidentschaftswahlen. Dann wurde in Myanmar über Facebook massiv gegen die muslimische Minderheit gehetzt. Dann kam das Massaker in Christchurch. Es zeigte erneut, wie wenig es Facebook gelingt, seiner Inhalte Herr zu werden. Noch eine Stunde nach der Tat war das Video zum Anschlag auf der Plattform zu finden.
Facebook gezwungen illegale Inhalte zu löschen
Inzwischen muss sich Facebook rechtfertigen. Nirgendwo mehr als in Deutschland, wo seit Anfang 2018 das Netzwerkdurchsetzungsgesetz gilt. Unter Androhung hoher Geldbußen zwingt es Facebook dazu, illegale Inhalte zu löschen. Aus Sorge vor den Strafen legt man die Meinungsfreiheit dort nun eng aus: Lieber einmal zu viel gelöscht als einmal zu wenig.
Man muss also genau hinsehen, wie Facebook mit der neuen Verantwortung umgeht. Nie zuvor hat eine einzelne private Firma so viel Macht über Meinung gehabt. So viel Einfluss darauf, was geschrieben werden kann, was Milliarden Menschen lesen können – und was nicht. Die Menschen, die für Facebook Erlaubtes von Verbotenem trennen, sind keine Richter, sondern meist schlecht bezahlte Mitarbeiter externer Unternehmen. Sie handeln nicht nach Gesetzen, sondern nach Geschäftsbedingungen. Selten können sie ihrer Aufgabe lange nachgehen, zu belastend ist die digitale Drecksarbeit. Man kann diesen Menschen dankbar dafür sein, dass sie sich durch den Hass wühlen. Aber man sollte nicht vergessen, dass sie Internet-Hilfssheriffs sind, die im Auftrag eines privaten Konzerns über eine so wertvolle Errungenschaft wie die Meinungsfreiheit walten.
Warum es dringend notwendig ist, die Hilfssheriffs zu kontrollieren und ihren Einfluss zu begrenzen, hat auch die Verhandlung vor dem Oldenburger Landgericht gezeigt. Dort zitierten die Richter aus Facebooks Regelwerk. An einer Stelle heißt es: „Außerdem lassen wir hin und wieder Inhalte zu, die eventuell gegen unsere Standards verstoßen, wenn sie nach unserer Ansicht berichtenswert, bedeutend oder wichtig für die Öffentlichkeit sind.“ Eine so vage Aussage kann vieles sein, aber ganz sicher keine Anleitung, wie man über die Meinungsfreiheit im Internet wacht. Geschäftsbedingungen ersetzen kein Grundgesetz.