Neue Antworten auf Hate-Speech

6. November 2018, 11:24
375 Postings

DER STANDARD und das Privacy and Sustainable Computing Lab der Wirtschaftsuniversität Wien arbeiten in einem Forschungsprojekt zusammen, um Hate-Speech zu reduzieren

Sexistische, frauenverachtende und abwertende Kommentare an Sigrid Maurer und Agrarministerin Elisabeth Köstinger haben das Thema "Hass im Netz" neuerlich in die Schlagzeilen gebracht und zu einer breiten Debatte geführt. Die Bundesregierung plant deshalb einen Gipfel gegen Frauenhass im Netz.

DER STANDARD begegnet Hate-Speech in seinen Foren bislang mit Community-Richtlinien und einer Reihe von Moderationsmaßnahmen. Das Community-Management setzt dabei zunächst vor allem auf die Förderung konstruktiver Diskussionen, das Löschen destruktiver Postings ist meist die letzte Maßnahme.

Was ist Hate-Speech?

Es ist schwierig, Hate-Speech eindeutig zu definieren und zu messen. Es handelt sich um ein intersubjektives Konstrukt, weshalb es auch wissenschaftlich schwer zu fassen ist. Definitionen von Hate-Speech fallen im rechtlichen sowie im sozialen Verständnis sehr unterschiedlich aus.

Die Konsequenzen von Hate-Speech reichen jedoch oft über das Internet hinaus und wirken sich auf das reale Leben aus. Daher wäre es ein Fehler, das Phänomen Hate-Speech, bloß weil es schwer zu fassen ist, nicht ernst zu nehmen. Das Internet, Social Media und Foren sind wichtige soziale Räume geworden, die nicht einer kleinen, aber lauten destruktiven Gruppe überlassen werden sollten.

Prävention statt Filtern

Um diese Herausforderung zu bewältigen, kooperieren DER STANDARD und das Privacy and Sustainable Computing Lab der Wirtschaftsuniversität Wien. In den nächsten Monaten wird ein designbasierter Ansatz unter Einbeziehung der Community entwickelt und getestet. Änderungen der Benutzeroberfläche sollen dazu führen, dass konstruktivere Postings verfasst werden. Mithilfe von User-Befragungen und Feedback-Schleifen sollen sowohl Bedürfnisse der Community als auch die Wirkungen der Maßnahmen überprüft werden. Außerdem wird versucht, selbstregulierende Prozesse innerhalb der Community in Gang zu setzen.

DER STANDARD und das Privacy and Sustainable Computing Lab beabsichtigen, mit diesem Ansatz das Auftreten sexistischer, frauenverachtender und abwertender Kommentaren zu reduzieren. Ein völliges Verschwinden ist jedoch eine Utopie. Viel erreicht wäre aber schon, wenn weniger Filtertechniken (z. B. Foromat) eingesetzt werden müssen. Das Herausfiltern und Löschen destruktiver Beiträge bilden momentan die gängige Antwort auf das Phänomen Hate-Speech. Filtertechniken schlagen mitunter zu spät und bei falschen Inhalten an. Deshalb sind sie nur eingeschränkt effektiv im Vorgehen gegen Hate-Speech.

Debatten stärken

Viele Medien sehen sich aufgrund destruktiver Kommentare gezwungen, ihre Foren zu schließen. Dieses Projekt soll einen Beitrag leisten, um Debatten online zu stärken und sie nicht zu verhindern. (Christian Burger, Marina Kubina, Ben Wagner, Marie Therese Sekwenz & Eliska Pirkova, 5.11.2018)

Ben Wagner, Marie Therese Sekwenz und Eliska Pirkova arbeiten für das Privacy and Sustainable Computing Lab der Wirtschaftsuniversität Wien.

Zum Thema:

  • Artikelbild
    foto: gettyimages/istockphoto/rudall30
Share if you care.