Facebook soll islamische Extremisten vernetzt haben

    8. Mai 2018, 11:39
    10 Postings

    Bericht: Vorschlagsfunktion machte IS-Sympathisanten untereinander bekannt

    Kaum ein Unternehmen stand in den vergangenen Wochen stärker in der Kritik als Facebook. Nach Vorwürfen ob mangelhafter Absicherung gegen die Manipulation öffentlicher Debatten folgte die Datenaffäre rund um Cambridge Analytica, das Informationen von über 80 Millionen Nutzerprofilen abgegriffen haben soll.

    Schelte erhielt man in der Vergangenheit auch dafür, dass man verschiedene problematische Inhalte nicht oder erst spät von der eigenen Plattform gelöscht hat – darunter auch Propaganda für Terrororganisationen. Doch das Versagen soll noch weiter reichen, berichtet nun der britische Telegraph unter Berufung auf eine vor der Veröffentlichung stehende Untersuchung des Counter Extremism Project. Facebook soll nämlich islamischen Extremisten Gleichgesinnte als mögliche Freunde vorgeschlagen und ihnen somit die Vernetzung erleichtert haben.

    "Personen, die du kennen könntest"

    Dieser Schluss basiert auf der Analyse der Facebook-Aktivitäten von tausend Unterstützern des "Islamischen Staats" (IS). Diese sollen "regelmäßig" durch das "Personen, die du kennen könntest"-Feature aufeinander aufmerksam gemacht sein worden. Facebooks Algorithmus schlägt mögliche Freunde nicht nur auf Basis beziehungstechnischer Verbindungen (etwa Freunde von Freunden) vor, sondern auch auf Basis gemeinsamer Interessen.

    Ein Autor des Berichts beschreibt, wie er selbst nach der Kontaktaufnahme mit einem Extremisten zahlreiche Kontaktvorschläge mit weiteren IS-Sympathisanten erhalten hat. Ein anderer sah ähnliche Vorschläge, nachdem er die Beiträge mehrerer normaler Nachrichtenseiten über Aufstände von Islamisten auf den Philippinen angeklickt hatte.

    "Beim Versuch, möglichst viele Menschen zu vernetzen, hat Facebook ein System erschaffen, das Extremisten und Terroristen hilft, sich zu finden", so die Kritik. Und nicht nur das, sondern es erleichtert auch das Aufspüren potenziell radikalisierbarer Personen. Genannt wird etwa der Fall eines areligiösen Amerikaners, der von einem IS-Anhänger kontaktiert und binnen Monaten dazu gebracht wurde, zum Islam zu konvertieren, radikale Ansichten zu entwickeln und den IS zu unterstützen.

    Nachlässigkeit beim Löschen

    Zudem sei Facebook nicht gut darin, die Auftritte und Inhalte der Extremisten zu löschen. Von den 1.000 untersuchten Profilen seien sechs Monate später noch über die Hälfte vorhanden gewesen. Das sei "besonders besorgniserregend". Und wenn man terroristische Inhalte gemeldet hat, wurden diese zwar gelöscht, das Konto des jeweiligen Nutzers aber meist nicht angetastet.

    Eine Reihe von Konten soll zudem, offenbar nachdem die User die Schließung beeinsprucht hatten, wiederhergestellt worden sein. Im Falle eines britischen IS-Sympathisanten sogar neun Mal, obwohl er brutale Videos der Terrororganisation verbreitet hatte. Und wenn Inhalte entfernt werden, dann geschehe dies meist so spät, dass diese davor bereits weitreichend verbreitet worden sind, so die Forscher weiter.

    Man unterstellt Facebook, zu wenig Übersicht über die eigenen Werkzeuge zu haben. Das Unternehmen habe freilich nicht beabsichtigt, ein "Netzwerk für Terroristen" zu schaffen. Es sei nun aber wichtig, wie der Konzern reagiere, jetzt wo das Thema am Tapet sei.

    Facebook verspricht Besserung

    In einer Stellungnahme hält sich Facebook recht allgemein: Das Netzwerk habe "keinen Platz für Terroristen" und man arbeite "aggressiv" daran, Profile, Gruppen und Inhalte in diesem Kontext zu entfernen. Dies würde auch funktionieren, denn bereits 99 Prozent der gefundenen Inhalte von Extremisten werde automatisch gelöscht. Es gäbe aber keine "einfache technische Lösung", weswegen man weiterhin Millionen [Euro] in neues Personal und technologische Weiterentwicklung investieren möchte.

    Es ist nicht das erste Mal, das eigentlich als Helfer konstruierte Algorithmen ungeplant bei problematischen Aktivitäten assistieren. So lieferte etwa die Empfehlungsfunktion des Online-Händlers Amazon laut eines TV-Berichtes beim Kauf bestimmter Materialien Vorschläge für andere, legale Zutaten zum Bau einer Bombe. (red, 08.05.2018)

    • Beim Counter Extremism Project übt man deutliche Kritik an Facebook.
      foto: reuters

      Beim Counter Extremism Project übt man deutliche Kritik an Facebook.

    Share if you care.