Kinderporno, Hitler und Co: Der Horror der Content-Moderatoren

19. April 2016, 09:55
77 Postings

Im Bereich der Inhaltsmoderation gibt es noch kein fixes Regelwerk, Insider sprechen von "Durchwurschteln"

Der Vorfall, der Julia Mora-Blanco noch heute Alpträume beschert, ist schon fast zehn Jahre her. Im Sommer 2006 saß sie in einem Büro in San Francisco, um für ein immer beliebter werdendes Portal namens YouTube gemeldete Inhalte zu überprüfen. Mora-Blanco ist Teil des sogenannten Squad Teams, des "Safety, Quality and User Advocacy Department" (Abteilung für Sicherheit, Qualität und Nutzerinteressen) – und Mora-Blanco ist eine jener damals wenigen Personen, die täglich mit den schlimmsten Inhalten des Internets in Berührung kommt. Das Video, das Mora-Blancos Leben veränderte, will sie nicht genau beschreiben. Nur so viel: Es wurde in einem spärlich beleuchteten Hotelzimmer gefilmt, es zeigte Misshandlungen an einem sehr jungen Kind.

Horror im Akkord

Die YouTube-Mitarbeiterin zeigte das Video ihrer erfahreneren Kollegin, die meldete den Inhalt an die Anti-Kinderpornostelle der US-Behörden – und nach einer kurzen Pause musste Mora-Blanco weiterarbeiten. Während damals bei YouTube, Facebook und Co nur wenige Personen mit der Inhaltsmoderation beschäftigt waren, sollen mittlerweile weit mehr als 100.000 Menschen hauptberuflich damit zu tun haben. Doch das Regelwerk, das die Legitimität von Onlineinhalten betrifft, stammt großteils immer noch aus jener Anfangszeit der Social Media-Ära – und wurde von Menschen wie Mora-Blanco mitformuliert, die keinerlei juristischen, soziologischen oder philosophischen Hintergrund mitgebracht haben, sondern einfach einen schlecht bezahlten Studentenjob übernahmen.

Kaum Regeln

Das berichtet zumindest TheVerge, das monatelang zu die Moderation von Onlineinhalten auf großen Plattformen recherchiert hat. Erstmals konnte TheVerge mit einfachen Mitarbeitern aus mehreren Konzernen sprechen, teils unter dem Deckmantel der Anonymität. Dabei kommt TheVerge zu einem vernichtenden Urteil: Wer argumentiert, das System der Inhaltsmoderation wäre "kaputt", liegt falsch – denn damit etwas kaputt sein kann, muss es überhaupt einmal funktioniert haben.

Durchwurschteln

Die Regeln der meisten Firmen seien aber nicht durchdachten, logischen Überlegungen entstammt, sondern beiläufig zusammengekommen. Ein "Durchwurschteln", das verheerende Folgen für den Schutz vieler Nutzer hat. So war YouTube nicht darauf vorbereitet, dass im Zuge von Aufständen und politischen Protesten "journalistisch wertvoll" Augenzeugenvideos auf der Plattform auftauchen könnten. Nachdem 2009 ein Video online ging, dass die Ermordung einer jungen Iranerin durch staatliche Scharfschützen zeigte, überlegten die Zuständigen im Silicon Valley hektisch, ob das Video gelöscht werden sollte oder bleiben durfte (es ist noch verfügbar). Dabei hätte man sich darüber wohl früher Gedanken machen können, immerhin hatte YouTube schon damals zig Millionen Nutzer.

"Sweatshops"

Mittlerweile soll ein Großteil der Inhaltsmoderation in "IT-Sweatshops" in Ostasien erfolgen, wo Mitarbeiter am Rande der Ausbeutung unzählige Clips pro Schicht überprüfen müssen. Das berichtete Wired vor einigen Monaten. Auch TheVerge gelangt zu dem Ergebnis, dass Inhaltsmoderation ein "notorisch mit schlechten Ressourcen ausgestattetes" Feld sei, für das sich "die Konzernspitze nicht interessiert". So mussten Facebook-Mitarbeiter anfangs selbst entscheiden, ob sie Hitler-Referenzen löschten. "Wir fragten uns irgendwann, warum wir das eigentlich taten", so ein Mitarbeiter zu TheVerge.

Zensur oder Kontrolle?

Dabei kommt Content-Moderatoren eine extrem wichtige Rolle zu. Sie entscheiden im Grunde darüber, was gesagt werden kann. Und müssen argumentieren, warum etwas nicht online stehen bleibt. Das ist gerade in heutigen Zeiten und unter dem Eindruck sogenannter "Hasspostings" ein Balanceakt. Einen "Kodex", der wie eine Art Industriestandard für alle Firmen gilt, gibt es aber nicht. Genau das fordern nun Aktivisten, die sich mit Onlinemobbing und Hetze beschäftigen. Denn in der aktuellen Situation müsse jedes Start-Up erneut eigene Regeln entwickeln. Das Gesetz könne zwar als Orientierung helfen, sei aber oftmals selbst schwammig. Klar ist: Eine stärkere Zusammenarbeit der Firmen ist nötig. Denn Onlinekommunikation wird nicht abebben – und horrende Inhalte wohl ebenso wenig. (fsc, 19.4.2016)

  • Extrem viele Nutzer produzieren extrem viele illegitime Inhalte – Experten halten Content-Moderationsteams für chronisch schwach ausgestattet
    foto: ap/risberg

    Extrem viele Nutzer produzieren extrem viele illegitime Inhalte – Experten halten Content-Moderationsteams für chronisch schwach ausgestattet

Share if you care.