"Project Owl": Wie Google gegen Fake News vorgehen will

    Video25. April 2017, 16:13
    9 Postings

    Menschliche Testpersonen sollen Suchalgorithmus entsprechend trainieren

    Google hat eine Initiative gestartet, um stärker gegen gefälschte Nachrichten und Hassbotschaften in Netz vorzugehen. Der Internet-Konzern kündigte am Dienstag das "Project Owl" (Projekt Eule) an, mit dem "minderwertiger Content" aus seinen Suchergebnissen und anderen Diensten weitgehend verbannt werden solle. Dabei sollen menschliche Testpersonen den Suchalgorithmus entsprechend trainieren, sagte Google-Entwickler Pandu Nayak der dpa.

    600 Testpersonen in Deutschland

    Für Google seien seit geraumer Zeit weltweit zehntausende Internet-Anwender aktiv, um Änderungen der Suchformel in einem Blindtest zu bewerten. Dabei bekommen die Tester die Suchergebnisse vor und nach der Algorithmus-Änderung zu sehen und müssen beurteilen, welches besser ist. In Deutschland seien rund 600 Testpersonen im Einsatz. Die Richtlinien für die Testpersonen seien nun komplett überarbeitet worden. Anhand von ausführlicheren Beispielen zu Webseiten von minderer Qualität wolle Google es Bewertern erleichtern, Seiten angemessen zu melden und zu kennzeichnen, die irreführende Informationen, unerwartet anstößige Suchergebnisse, Falschmeldungen und unbestätigte Verschwörungstheorien enthielten.

    "Es gibt ähnlich wie bei Spam-Mails Leute, die unser System austricksen wollen. Dagegen werden wir nun noch schärfer vorgehen", sagte Nayak. Die Testpersonen sollen im Auftrag von Google allerdings nicht massenhaft ungeeignete Seiten aus den Suchergebnissen herausfiltern, sondern den Algorithmus der Suchmaschine auf eine bessere Erkennung der minderwertigen Inhalte trainieren.

    Autocomplete-Funktion

    Die Initiative umfasst auch die Autocomplete-Funktion bei der Google-Suche. Mit der automatischen Vervollständigung von Suchbegriffen will Google den Nutzern Tipparbeit ersparen. Zum Beispiel bei der Eingabe von "women are" (Frauen sind) habe das System aber zuletzt das Wort "evil" (böse) vorgeschlagen, weil die Funktion bislang ohne Wertung die Begriffe anzeigt habe, die im Netz häufig aufgerufen würden.

    Google wird künftig bei den Vorschlägen auf Begriffe verzichten, die als sexuelle Beschimpfung, Hassrede oder als Bedrohung bestimmter Gruppen empfunden werden können. Außerdem bekommen die Google-Anwender die Möglichkeit, Autocomplete-Vorschläge zu bewerten und anstößige Worte zu melden. Diese Funktion wird aber zunächst nur auf Englisch verfügbar sein. (APA, 25.4.2017)

    • Artikelbild
      foto: ap photo/virginia mayo
    • derstandard.at

      Was sind eigentlich Fake News und wie erkennt man sie? Ein Erklärvideo von Explain-it für den STANDARD.

    Share if you care.