Facebooks interne Löschvorgaben geleakt: Darum bleiben manche Hasspostings online

22. Mai 2017, 10:36
235 Postings

Interne Dokumente zeigen, wie das Löschteam mit Inhalten wie Gewaltvideos oder Hasspostings umgehen soll

Welche Inhalte und Kommentare sind auf Facebook erlaubt, und welche verstoßen gegen die Gemeinschaftsstandards? Das größte soziale Netzwerk informiert seine Nutzer darüber zwar auf einer eigenen Seite. Doch die Löschpraxis zeigt, dass die Ansichten, was Verstöße sind und was nicht, zwischen Nutzern und Facebook oft auseinandergehen. Ein Leak der internen Richtlinien bringt nun Licht in die Sache und dürfte gleichzeitig die Kritik am Unternehmen weiter befeuern. Der "Guardian" hat erstmals umfassenden Einblick in die Vorgaben für Facebook-Moderatoren erhalten.

Gewalt ist nicht gleich Gewalt

Der britischen Zeitung wurden von nicht näher genannten Personen hunderte Dokumente mit Handbüchern, Grafiken und Präsentationen für Facebook-Moderatoren zugespielt. Das betrifft beispielsweise Hasskommentare, Gewaltdarstellungen und Pornografie, aber auch abstrusere Dinge wie Kannibalismus. Die Unterlagen wurden laut dem Bericht im vergangenen Jahr an die Moderatoren des Netzwerks ausgegeben.

Die Dokumente zeigen, wie unterschiedlich Facebook bestimmte Gewaltdrohungen auffasst. So sei es beispielsweise nicht erlaubt zu schreiben, dass jemand Donald Trump erschießen sollte oder man "zum Schrecken des Zionisten" werden sollte. "To snap a bitch's neck, make sure to apply all your pressure to the middle of her throat" oder "Let's beat up fat kids" hingegen werden nicht als direkte beziehungsweise ernstzunehmende Drohung angesehen und würden nicht gelöscht. Nutzer mit mehr als 100.000 Followern seien Personen des öffentlichen Lebens – für sie würden weniger strenge Schutzmaßnahmen gelten als für Privatpersonen.

Misshandlung von Kindern

Fotos, die Misshandlungen von Kindern zeigen, müssten nicht entfernt werden, sofern es sich nicht um sexuellen Missbrauch handelt oder ein sadistischer Hintergrund vermutet wird. Mitunter würden derartige Inhalte auch online bleiben, um die Opfer identifizieren und ihnen helfen zu können. Videos mit gewaltsamen Todesfällen wiederum könnten Aufmerksamkeit für psychische Krankheiten schaffen und würden daher nicht immer gelöscht. Auch Livestreams, die selbstverletzendes Verhalten zeigen, sollten nicht gelöscht werden, weil man Personen in Stresssituationen nicht zensieren oder bestrafen wolle.

Immer wieder Anlass zur Aufregung geben Nacktfotos. Aus den Guidelines: "Handgefertigte Kunst" (etwa Malerei oder Statuen), die Nacktheit und sexuelle Akte zeigt, ist demnach erlaubt, digitale Kunst hingegen nicht. Abtreibungen dürften gezeigt werden, solange keine Intimaufnahmen zu sehen seien.

Hasspostings als Dampfablassen

Aus einem der Dokumente gehe hervor, dass das Unternehmen gewaltgeladene Sprache als Dampfablassen für frustrierte Nutzer einstufe. Da die Kommentare auf einem Bildschirm geschrieben werden und dem anderen nicht direkt ins Gesicht gesagt werden, würde es den Nutzern an Empathie für das Gegenüber fehlen. Ob Gewaltandrohungen gelöscht werden, hänge daher auch davon ab, wie ernstzunehmend sie seien. "Fuck off and die" sei eher Ausdruck von "Abscheu und Frustration" als eine echte Drohung.

Auch die Arbeitsbedingungen der Moderatoren sind Thema des Berichts. So hätten die Mitarbeiter teilweise nur zehn Sekunden Zeit, eine Entscheidung zu treffen, so eine der Quellen. Die Flut an Inhalten, die moderiert werden muss, sei schlicht überwältigend. Aus den Unterlagen geht hervor, dass das Unternehmen beispielsweise wöchentlich mehr als 6,5 Millionen Meldungen zu potenziellen Fake-Accounts durchsehen muss.

Konsens bei zwei Milliarden Nutzern schwierig

In einer Stellungnahme gegenüber dem "Guardian" sagt Monika Bickert, Head of Global Policy Management, dass es bei zwei Milliarden Nutzern sehr schwierig sei, eine zufriedenstellende Lösung zu finden. Egal, wo man die Grenze ziehe, es gebe immer Grauzonen – beispielsweise wo Humor beziehungsweise Satire aufhöre und unangebrachte Inhalte anfangen. Das Unternehmen hat aktuell 4.500 Moderatoren, die sich mit der Durchsicht sensibler Inhalte befassen. In Zukunft sollen international 3.000 weitere Personen dafür eingestellt werden.

Gegenüber dem STANDARD hieß es auf Anfrage seitens der deutschen Pressevertretung, dass sich die internen Schulungsunterlagen an die Mitarbeiter ständig weiterentwickeln. Aufgrund stets neu aufkommender Phänomene wie etwa Rachepornos sei es eine große Herausforderung, die Vorgaben immer aktuell zu halten. Grund zu Zweifel, dass die dem "Guardian" zugespielten Unterlagen Fakes sind, gebe es nicht. Unklar sei aber, wie aktuell die Dokumente sind.

Für Kritiker dürften einige der Vorgaben nicht ausreichend sein, um mit Problemen wie Hasspostings umzugehen. Das Unternehmen ist in den vergangenen Jahren zunehmend unter Druck seitens der Politik gekommen, hasserfüllte Sprache zu unterbinden. In Österreich soll bis zum Sommer eine eigene Meldestelle für Hasspostings entstehen. Diese soll keine Zensurbehörde werden, sondern eine erste Anlaufstelle für betroffene Nutzer sein. (br, 22.5.2017)

  • Was ist ein löschenswertes Hassposting und was legitimer Ausdruck von Frustation? Der "Guardian" hat interne Dokumente veröffentlicht, die eine Art Blaupause für Facebooks Löschteam darstellen.
    foto: apa/helmut fohringer

    Was ist ein löschenswertes Hassposting und was legitimer Ausdruck von Frustation? Der "Guardian" hat interne Dokumente veröffentlicht, die eine Art Blaupause für Facebooks Löschteam darstellen.

    Share if you care.