Terror: Facebook und Co. haben versagt – bei einer Mammutaufgabe

    16. März 2019, 10:57
    303 Postings

    Der Attentäter von Christchurch nutzte soziale Medien ausgeklügelt, um seine horrenden Botschaften zu verbreiten

    Wer grausame Bilder von Terroranschlägen oder Kriminalfällen sehen will, wird diese auch sehen können: Das ist seit der massenhaften Verbreitung des Internets klar. In irgendeiner Ecke des Netzes, und sei es im Dark Web, sind immer Videos zu finden, die eigentlich nicht den Weg an die Öffentlichkeit finden sollten. Aber mit dem Aufstieg von Facebook, Youtube und Konsorten ist es extrem einfach geworden, diese Videos zu finden – vor allem zeitnah zum Ereignis.

    Livestream

    Das zeigte am Freitag eindrücklich der Terroranschlag in Christchurch, wo bei Attentaten in zwei Moscheen 49 Menschen ermordet wurden. Der Hauptverdächtige konnte seine Tat 17 Minuten lang bei Facebook live streamen, danach fluteten Kopien des Videos das Netz. Während die Konzernchefs im Silicon Valley aufwachten, arbeiteten ihre Teams mit Hochdruck daran, diese Clips zu entfernen.

    Upload-Filter

    Das passiert etwa, indem Videos "gehasht", also ihre spezifischen Eigenschaften analysiert werden. Dieser Hash wird dann mit neuen Uploads verglichen; bei Übereinstimmungen wird das Video automatisch gesperrt. Aber es gibt viele Möglichkeiten, um diesen Filter auszutricksen: So kann beispielsweise ein Bildschirm abgefilmt werden, auf dem der eigentlich gesperrte Clip gezeigt wird.

    Dazu kommt, dass viele Videos, die Teile des Clips zeigen, gar nicht gesperrt werden sollten – weil es sich dabei nämlich um Nachrichten handelt. So verwendeten viele Medien, vor allem im englischsprachigen Raum, Teile des Originalvideos für ihre Berichterstattung. Wenn Facebook oder Youtube diese automatisch sperren würden, wäre das eine Form von Zensur.

    Zensur-Ideen

    Dasselbe gilt für Vorschläge, Uploads von Videos bei Googles Youtube oder bei Facebook insgesamt zu sperren. Diese Idee widerspricht der Meinungsfreiheit und würde für einen noch größeren Aufschrei sorgen. Außerdem bestünde dann angesichts der Nachrichtenlage die Gefahr, dass die beiden Plattformen regelmäßig pausieren müssten.

    Moderationsteams

    Ein valider Kritikpunkt bleibt allerdings bestehen: Angesichts ihrer Profite hätten Google und Facebook den Spielraum, ihre Moderationsteams drastisch zu vergrößern – in kleinen Schritten erfolgt das schon. Denn schlußendlich kann nur ein Mensch entscheiden, ob ein Video Nachrichtenwert hat oder Terrorpropaganda ist. (red, 16.3.2019)

    • Nach dem Terroranschlag in Christchurch herrscht auch bei den Techkonzernen Ratlosigkeit
      foto: reuters/su

      Nach dem Terroranschlag in Christchurch herrscht auch bei den Techkonzernen Ratlosigkeit

    Share if you care.