Debatte um Hasskommentare

Das sollte Heiko Maas über Facebooks Löschkommandos wissen

Am Montag will Justizminister Maas Antworten von Facebook. Das wird schwer. Facebook will die deutsche Sicht nicht mit der ganzen Welt teilen.

Facebook hat einen anderen Blick auf die Postings als viele deutsche Nutzer.

Facebook hat einen anderen Blick auf die Postings als viele deutsche Nutzer.

Foto: LWienand@wmg.loc / BM

Berlin. Nach den ersten Likes kamen schnell die Fragen: Da hatte Facebook gerade auf seiner Seite selbst die Karte der Tagesschau zur Flüchtlingshilfe geteilt - und schaut zu, wie sich auf seinen Seiten massenhaft Hass auf Flüchtlinge ergießt? Kommentare dokumentieren wir hier.

„Löscht endlich“, appellierte auch Grünen-Fraktionschefin Katrin Göring-Eckhardt und las im Video Hasskommentare vor. Facebook ist manchmal blind, aber es hat auch die globale Brille auf. Und damit sieht die Welt aus Facebooks Sicht anders aus als in Deutschland. Es wäre eine Antwort, die Justizminister Heiko Maas nicht zufrieden stellen dürfte, wenn er am Montag von Facebook Taten erwartet. Was man über die Löschrichtlinien, das Löschteam. überzogenen Erwartungen ans Löschen und von Facebooks Vorstellungen von dem Netzwerk wissen muss:

Die Gemeinschaftsrichtlinien erfassen Flüchtlinge/Migranten nicht als geschützte Gruppe (anders als Angehörige einer Nation oder einer Religion), deshalb sind viele Hasspostings im Einklang mit den Gemeinschaftsstandards. Flüchtlinge sind vielleicht keine für Facebooks Geschäft „gefährliche“ Zielgruppe. Der zu Hasssprache forschende Wissenschaftler Anatol Stefanowitsch: „Ich kann nur spekulieren, dass Facebook sich von einem Schutz bestimmter Gruppen finanziell mehr verspricht als von anderen. Es kann sein, dass Facebook davon ausgeht, dass homophobe Hassrede mehr Nutzer und Nutzerinnen abschreckt als fremdenfeindliche oder rassistische Hassrede.“

In der Diskussion werden aber auch oft zulässige, wenn auch für viele schwer zu ertragende Meinungsäußerungen vermischt mit strafbaren. „Das Internet ist kein Raum, in dem US-Unternehmen willkürlich löschen und sperren können, was hierzulande unter die legale Meinungsäußerung fällt“, kommentierte das Blog netzpolitik.org.

Töne wie nun Maas gab es bereits im Frühjahr von Frankreichs Staatspräsident Hollande. Facebook müsse sich seiner Verantwortung stellen, sagte er nach nach dem Charlie-Hebdo-Attentat. Da feierten muslimische Jugendliche die Attentate, es hagelte sowohl judenfeindliche wie auch gegen Moslems und den Westen gerichtete Hasspostings.

An Hollands Forderungen an Facebook hatte es auch Kritik aus dem eigenen Land gegeben. Menschen überwachen und sanktionieren zu lassen von einem privaten Unternehmen in den USA laufe fundamentalen Prinzipien der Demokratie und der Freiheit entgegen. In den USA wird solche Kritik noch lauter artikuliert.

Im März schraubte Facebook an seinen Gemeinschaftsrichtlinien. Der auf das Dreifache gewachsene Text präzisierte aber vor allem die geltenden Regeln und machte deutlich, dass Propaganda für Terrorgruppen und deren Taten nicht zugelassen werde. In der Praxis löscht Facebook da sehr viel, die meisten verstörenden Szenen sind nur kurz zu sehen. Manche Facebookmitarbeiter sind unfreiwillige Experten in Hinrichtungsmethoden geworden.

Frankreich setzte auf Aufklärung

Dennoch bleiben etwa viele IS-freundliche Kommentare stehen. Frankreich wählte auch den Weg, seine Gesetze zu verschärfen und mit einem 100-Millionen-Euro-Programm in Aufklärung an Schulen zu investieren und eine Einheit zur Überwachung von Hass im Netz aufzubauen. Hollande kommentierte: „Die Zeit der Passivität im Netz ist vorüber.“ In Deutschland gibt es auch Forderungen, dass die Strafverfolgungsbehörden aktiver werden. „Mit Facebook reden reicht nicht“, sagte Grünen-Politiker Volker Beck.

Polizei und Staatsanwaltschaften registrieren aber bereits eine Flut von Anzeigen. Die Polizei bittet bereits, keine Anzeigen mehr zu erstatten nach den üblen Postings, die die Seiten „Perlen aus Freital“ zusammenträgt.

Nach Angaben des Unternehmens laufen mehrere Millionen „Reports“ wöchentlich bei Facebook auf. Konkreter wird das Unternehmen dabei nicht. Es räumt aber ein, dass dabei natürlich Fehler passieren.

Teams sitzen in Palo Alto, in Texas, in Dublin und in Indien. Facebook spricht von „Hunderten“ Mitarbeitern, versichert, dass es auch ausreichend deutschsprachige Mitarbeiter gebe. Das seien Muttersprachler, um sprachliche Nuancen zu erfassen.

Ein „Gefällt mir nicht“-Knopf würde die Zahl der Meldungen wohl deutlich nach unten gehen lassen. Nach Facebooks eigenen Erfahrungen hagelt es etwa bei Fußballspielen rivalisierender Nationen Meldungen. An eine Einführung des „Gefällt mir nicht“-Buttons denkt Facebook aber nicht, weil der ganz neue Probleme mit sich bringen würde.

Löschen: Mensch schlägt Computer

Facebook hatte versucht, Algorithmen für die Entscheidungen zu programmieren. Das Experiment scheiterte, Menschen bewerten die Meldungen. Um die Zahl der Meldungen zu reduzieren, feilt Facebook an dem Meldeprozess, schlägt vor, den Nutzer selbst zu kontaktieren. In der Praxis eher die Ausnahme.

Laut Facebook hat jede Meldung das gleiche Gewicht, egal, wer dahinter steckt. Facebook behauptet auch, die Anzahl von Meldungen eines Beitrags spiele keine Rolle. Für VIPs mit Kontakt zu Facebook-Lobbyisten gibt es aber Wege, Entscheidungen direkt an höherer Stelle einsteuern zu können.

Der US-Verfassungsrechtler und Publizist Jeffrey Rosen konnte lange mit dem für die Meldungen Verantwortlichen sprechen und tiefe Einblicke nehmen in Facebooks Meldewelt. Er schätzte, dass ein Mitarbeiter pro Beitrag 20 Sekunden Zeit hat.

Die ersten Gemeinschaftsstandards entstanden mit der Anti-Mobbing-Richtlinie einer Hochschule als Vorlage, geschrieben von einem Mitarbeiter, der zunächst zum Beantworten von Fragen angeheuert worden war. 2014 verließ er Facebook als Leiter des Inhalteteams. Schnell hatte sich gezeigt, dass Facebook mit den sehr allgemein formulierten Regeln nicht weit kommt. Er stellte auch fest, dass europäische und amerikanisches Herangehen zur Beurteilung von Hassrede völlig anders sind. In den USA geht es um die Absicht eines Schreibers, in Europa um mögliche gesellschaftliche Folgen. Es sollten Regeln zu Hassrede her, die es den Bearbeitern einfach machen, eingehende Meldungen danach zu kategorisieren oder unklare Fälle an die nächste Ebene weiterzugeben.

21-Jähriger veröffentlichte internen Lösch-Leitfaden

Aus Ärger über Facebook gab ein 21-jähriger Marokkaner den 2011 gültigen Leitfaden an die Medien, wie Mitarbeiter Inhalte sichten und bewerten sollen. Er erklärte, bei einem für Facebook tätigen Unternehmen einen Euro pro Stunde erhalten zu haben und dafür häufig grässlichen Bildern ausgesetzt gewesen zu sein. Facebook ließ danach offen, ob mit dem Unternehmen weiter zusammengearbeitet wird. 2014 berichtete Wired, einem Mann in den Philippinen seien 312 Dollar Monatslohn angeboten worden für die Moderation von Facebookinhalten.

In der Handlungsanweisung zum Löschen hieß es auch: „Humor überwiegt Hassrede", die Mitarbeiter sollten nicht löschen, wenn ein Posting auch als Humor ausgelegt werden konnte.

In diesem Leitfaden zeigte Facebook, dass es sehr wohl sogar irritierend viel Verständnis für nationale Belange aufbringen kann: Explizit hieß es, dass alle Postings gegen den türkischen Staatsgründer Atatürk weltweit ebenso wie Landkarten mit Kurdistan direkt an die nächste Entscheiderebene weitergeleitet werden sollten. Und auch auf deutsches Recht, das Holocaustleugnung verbietet, nimmt Facebook bereits Rücksicht.

Fotos und Postings zu Gewalt gegen Frauen liefen bei Facebook noch unter dem Humor- oder Satire-Ansatz, als Facebook in seinen Richtlinien bei Antisemitismus, Islamophobie oder Schwulenhass bereits keinen Spaß mehr verstand. Frauenverbände initiierten eine globale Kampagne.

Im Mai 2013 gestand Facebook dann ein, bei der Beurteilung des Materials Fehler gemacht zu haben und „veraltete Kriterien“ angelegt zu haben. Zuvor hatten 15 Unternehmen, darunter Weltkonzerne, angekündigt, Werbung auf Facebook einzustellen. Das war eine Folge der Kampagne der Frauenverbände.

In der aktuellen Debatte hat Publizist Sascha Lobo ebenfalls die Anzeigenkunden von Facebook ins Gespräch gebracht. Wenn jemand die Screenshots von Werbung großer Unternehmen direkt neben Hasskommentaren sammele und veröffentliche, „würde (das) für Facebook die Entfernung von Hassrede wohl wesentlich einfacher machen“.

Der rechtliche Rahmen für den Schutz von echter oder vermeintlicher Hassrede wurde in den USA in den 60er-Jahre geprägt, als Südstaaten-Regierungen wie Martin Luther King oder Malcolm X wegen Hassrede und Aufstachelung zum Rassenkrieg vorgehen wollten.

„Mehr Macht als jeder König, Präsident oder jedes Gericht“ über Meinungsäußerung habe Facebook, sagt der einflussreiche Jura-Professor und Autor Jeffrey Rosen und kritisiert. „Aber anders als Präsidenten ist es an keine Verfassung gebunden.“

Bereits strenger als US-Gesetze

Facebook geht in den USA aber weiter als die Gesetze vorschreiben. Es weicht vom Free-Speech-Prinzip ab, wenn etwa sexuelle Orientierung in den Gemeinschaftsrichtlinien geschützt wird – amerikanische Gerichte haben immer wieder bestätigt, dass Hassrede gegen Menschen mit bestimmten sexuellen Orientierungen erlaubt ist. Anatol Stefanowitsch: „Wenn die Regeln also lasch sind, dann, weil Facebook das so will.“

Facebook sieht im Verbergen und Löschen eine Gefahr der Radikalisierung: Wer sich nicht in Worten ausdrücken kann, sucht andere Wege. Viele Kritiker und auch Wissenschaftler sehen das umgekehrt: Das Klima in sozialen Netzwerken als Nährboden für Gewalt. Julia Schramm, die für die Antonio-Amadeo-Stiftung das Vernetzungsprojekt no-nazi.net koordiniert, sagt: „Für die organisierten Rechten dient diese Entwicklung vor allem als Legitimation: Schaut, wir vollstrecken hier nur den Volkszorn.“

Das Unternehmen sieht nicht ein, gesellschaftliche Probleme bei sich auszublenden, sondern sieht die Gesellschaft gefordert. Wie in den USA müsse es mehr „Counter Speech“ geben – direkten Widerspruch auf Hasspostings. Das sieht die Gruppe „Dresden nazifrei“ zwiespältig. Insbesondere für strategisch klugen Einsatz von Social Media hatte sie den von Facebook mit ausgelobten „Smart Hero Award“ gewonnen. Sprecher Silvio Lang: „In einer idealen Welt wären Rassismus und jegliche Ideologien der Ungleichwertigkeit gesellschaftlich geächtet und es würde ihnen, wo auch immer sie auftauchen, entschieden, klar und unmissverständlich widersprochen.“ Aber vom Idealzustand sei die Welt weit entfernt. „Und was wir erleben ist, dass der Aufstand der Anständigen ein leiser Aufstand ist, auch wenn sich unglaublich viele Menschen gegen Rassismus und Hate Speech engagieren und noch mehr für Refugees.“

Auf Facebooks eigener Seite stand am Freitagabend noch ein Kommentar unter der Karte zur Flüchtlingshilfe, der vom 7. September stammte: "Alle Ausländer verbrennen."