Youtube: Wo Rechtsextremismus ein Zuhause findet

    8. September 2018, 12:42
    23 Postings

    Der Algorithmus der Plattform hat teilweise Verschwörungstheorien zum Mainstream gebracht

    Nach den Geschehnissen in Chemnitz wunderte sich ein Beamter der Stadt über immer mehr Anrufe, bei denen Bürger anriefen, um Statements zu angeblichen Geschehnissen zu erfragen – etwa, dass der verstorbene Deutsche, der mutmaßlich von zwei aus Syrien und dem Irak stammenden Verdächtigen umgebracht wurde, getötet wurde, weil er eine deutsche Frau vor sexueller Belästigung schützen wollte.

    Algorithmus verbreitet Verschwörungstheorien

    Wie die New York Times berichtet, hat der Aufstieg solcher Verschwörungstheorien in die Mainstream-Debatte womöglich seinen Ursprung bei Googles Videoplattform: Youtube. Der Forscher Ray Serrato, der zuvor schon Hate-Speech in Myanmar beobachtet hatte, wo Falschinformationen auf Facebook zu Lynchjustiz führten, recherchierte den Youtube-Algorithmus anhand des Fallbeispiels Chemnitz.

    Sein Ergebnis ist, dass die Plattform häufig zu verschwörungstheoretischen Videos weiterverweist, weitaus seltener aber zu seriösen Nachrichtenquellen. So würde man, selbst wenn man nach seriösen Quellen sucht, relativ bald zu rechtsextremen und oft mit Falschinformationen gefüllten Inhalten kommen, umgekehrt aber nicht von verschwörungstheoretischen Videos zurück auf seriös recherchierte.

    Rechtsextremismus durch die Hintertür

    Youtube würde aber nicht nur Vorschläge über den Fall Chemnitz liefern, sondern relativ bald zu allgemeinen Inhalten, die weißen Nationalismus und rechtsextreme Positionen gutheißen, verweisen. Auch würden weitere Verschwörungstheorien – etwa, dass Donald Trump eine Marionette der Rothschild-Familie sei – empfohlen werden.

    Der Grund dafür könnte sein, dass Youtubes Algorithmus versucht, Nutzern Inhalte vorzuschlagen, die sie gerne konsumieren und die zu mehr Klicks führen – solche Videos würden emotional aufschaukeln und zu größerem Interesse führen.

    Verschwörungen ziehen Zuschauer an

    Ein ehemaliger Google-Mitarbeiter erklärt das an dem weniger politischen Beispiel der Theorie, dass die Erde flach ist: Videos, die diese bestätigen, würden bis heute immer noch regelmäßig viral gehen. Der Youtube-Algorithmus empfiehlt sie Nutzern immer wieder, weil sie viel konsumiert werden. Dagegen etwas zu machen, ist nicht einfach – während Lügen und Propaganda einer Gesellschaft schaden würden, sind sie nicht illegal. (red, 8.9.2018)

    • Artikelbild
      foto: ap/semansky
    Share if you care.