Microsofts neuer Chatbot nennt Koran "sehr gewalttätig"

5. Juli 2017, 10:27
106 Postings

Nach dem Fiasko rund um Chatbot Tay sollte sich Zo eigentlich nicht zu politischen Themen äußern

Microsofts Chatbot Tay entwickelte sich vor rund einem Jahr zu einer der peinlicheren Erfindungen des IT-Konzerns. Nach wenigen Tagen in sozialen Medien wurde Tay zu einer rassistischen, sexistischen und homophoben Userin, die etwa den Genozid an Mexikanern befürwortete und die Terroranschläge vom 11. September 2001 als Machwerk von George W. Bush bezeichnete. Schnell wurde Tay offline genommen, Microsoft versprach Besserung.

Bin Laden, Koran

Chatbot Zo sollte ganz anders werden. Politische Themen wollte Microsoft bei diesem neuen Chatbot ganz ausklammern. Doch wie Buzzfeed aufdeckt, hat auch Zo Ansichten, die Microsoft wohl nicht unterschreiben würde. So gab Zo an, dass der Koran "sehr gewalttätig sei" – als Antwort auf eine Frage, was Zo von universaler Gesundheitsversorgung halte. Auch zur Tötung von Osama bin Laden äußerte sich Zo.

Microsoft ist zufrieden

Microsoft ist mit den Fortschritten von Zo zufrieden. Pläne, den Bot offline zu nehmen, gibt es momentan keine. Buzzfeed kritisiert, dass ein Bot, der auf Konversationen mit Teenagern abziele, in der Lage sein soll, keine derartigen Aussagen zu tätigen. (red, 5.7.2017)

  • Artikelbild
    foto: ap/warren
    Share if you care.