Facebook-Insider erklärt, warum Hasspostings oft stehen bleiben

27. November 2016, 09:51
210 Postings

Ehemaliger Mitarbeiter gibt Einblick in deutsche Kontrollstelle – Grundsatz "keine Vermutungen" lässt bei Hassreden großen Spielraum für Verfasser

Immer wieder sorgt Facebook für Aufregung, weil das Netzwerk offensichtliche Hasspostings nicht löscht. Obwohl Nutzer herabwürdigende oder bedrohliche Beiträge und Kommentare melden, bleiben diese stehen, weil sie nicht gegen die "Gemeinschaftsstandards" verstoßen würden. Bei nackter Haut hingegen scheint die Löschtaste locker zu sitzen, wie etwa das Verschwinden von Fotos zur Brustkrebsaufklärung oder die historische Aufnahme eines nackten, vor einem Napalm-Angriff im Vietnamkrieg fliehenden Mädchens zeigt.

Autor Carsten Drees von Mobile Geeks hatte kürzlich einen antisemitischen Beitrag gemeldet. Ein Nutzer hatte ein Foto gepostet, auf dem eine Spur von Geldscheinen am Boden entlang in einen geöffneten Backofen führt. Untertitelt war das Bild mit dem Text "habe mir schnell mal eine Judenfalle gebaut !!!". Das Posting, das einige Nutzer nach eigenen Angaben den Behörden gemeldet haben, erwies sich für Facebook zuerst nicht als sanktionswürdig. Nach einer Meldung hieß es, der Beitrag verstoße nicht gegen die "Gemeinschaftsstandards".

Ein ehemaliger Mitarbeiter des Facebook-Supports gab dem Techblog nun einen ausführlichen Einblick in die Arbeitsweise der Meldestelle des sozialen Netzwerks.

600 Mitarbeiter für Deutschland

Der anonym bleibende Insider war nach eigenen Angaben beim Unternehmen Arvato beschäftigt, das für die Abarbeitung von Nutzerbeschwerden in Deutschland zuständig ist. Rund 600 Mitarbeiter sollen sich seit diesem Jahr am Standort in Berlin um diese kümmern, organisiert in unterschiedliche Teams sowie Tag- und Nachtschicht. Bestimmte Sonderfälle, etwa Kindesmissbrauch, sollen an Spezialisten in Irland weitergegeben werden.

Die Kontrolle von Meldungen erfolgt manuell, allerdings gestützt von den Algorithmen des Unternehmens. Facebook wünsche sich nach den Angaben des Ex-Mitarbeiters eine Bearbeitungsquote von 1.850 Tickets pro Mitarbeiter und Tag, tatsächlich würden jedoch rund 800 erreicht. Aufwand und Teamgröße schwanken mit der Aufgabe. Etwa 10.000 Tickets pro Tag sollen beim Team für die Überprüfung von Fake-Profilen landen, deren Kontrollaufwand pro Fall verhältnismäßig gering ist. Nur etwa halb so viele Meldungen werden vom Team für Cybermobbing bearbeitet, hier fließt deutlich mehr Zeit in die individuelle Bearbeitung.

Ob etwas als Hassrede klassifiziert wird oder nicht, hängt wesentlich davon ab, ob ein Posting sich gegen eine von acht geschützte Kategorien richtet. Diese umfassen etwa Hautfarbe, Herkunft, Geschlecht oder Religion. Als semi-geschützter Sonderfall gesellen sich Migranten/Flüchtlinge hinzu. Enthält der gemeldete Inhalt Aufrufe zu Gewalt oder Segregation, herabwürdigende Verallgemeinerungen, Beschimpfungen oder Verleumdungen, kann er sich für eine Löschung qualifizieren.

"Keine Annahmen"

Dass dies aber oft nicht passiert, liegt auch an einem Grundprinzip, dem die Kontrolleure folgen müssen. Es lautet: "Keine Annahmen" – man darf keine Vermutungen darüber anstellen, was ein Nutzer mit einem Kommentar vielleicht gemeint haben könnte, egal wie deutlich es erscheinen mag. Handelt es sich etwa nicht um eine direkte Beleidigung oder Drohung, müssen die Mitarbeiter Postings oft stehen lassen. Dies ist auch der Grund, warum das gemeldete Foto mit der "Judenfalle" zuerst nicht gelöscht wurde. Denn dessen Ersteller hatte nicht explizit formuliert, dass er mit den Geldscheinen Juden anlocken und verbrennen wolle.

Dazu gibt es eine Reihe fixer Regeln, die festschreiben, was in jedem Fall verboten ist. Auch diese erzeugen Diskrepanzen, die Usern nur schwer vermittelbar sind. Beispielsweise kann ein User demnach etwas als "nur für Weiße" deklarieren. "Nicht für Schwarze" wäre hingegen löschwürdig, da es eine spezifische Exklusion darstellt. Das Regelwerk soll insgesamt 48 Seiten umfassen.

Inkonsequente Umsetzung

Jedoch hält sich Facebook selber mitunter nicht an eigene Regeln, vor allem dann nicht, wenn ein Posting sehr zahlreich gemeldet wird und für Aufmerksamkeit sorgt. Dann werden auch Ausnahmen in den Algorithmus geschrieben und das "Napalm-Mädchen" eta nicht mehr automatisch als "nacktes Kleinkind" erkannt. Die erhöhte Meldequote dürfte schließlich auch der Grund dafür gewesen sein, dass Facebook das antisemitische Foto letztlich doch gelöscht hat.

Drees sieht noch großen Nachholbedarf bei Facebook. Abseits einer Personalaufstockung müssten die starren Regeln "modifiziert" und gleichzeitig auch konsequenter exekutiert werden. Denn oft würden auch Postings stehen bleiben, die selbst unter den aktuellen Vorgaben zu löschen wären. Nutzer sollten trotz der Schwierigkeiten weiterhin problematische Beiträge und Profile melden und gegebenenfalls auch per Screenshot sichern und der Polizei zur Anzeige übergeben. (gpi, 27.11.2016)

  • Facebook steht ob seines Umgangs mit Hasspostings schon länger in der Kritik.
    foto: reuters

    Facebook steht ob seines Umgangs mit Hasspostings schon länger in der Kritik.

Share if you care.