Der Sexismus virtueller Assistenten: Frauen als gehorsame Diener

21. August 2016, 09:31
229 Postings

Debatte über stereotype Geschlechtsidentität von Siri, Cortana und Co

Bei der Entwicklung künstlicher Intelligenz und virtuellen Assistenten werden Entwickler vor eine Frage gestellt, die bei Software bisher nicht aufgetaucht ist: soll das Programm eine weibliche oder eine männliche Identität erhalten. Oder keines von beiden? Apple, Microsoft oder Amazon haben ihren virtuellen Assistenten Siri, Cortana und Alexa eine weitgehend weibliche Persönlichkeit zugeordnet. Daran gibt es Kritik.

Stereotyp der weiblichen Assistentin

Ob beispielsweise Siri eine männliche oder eine weibliche Stimme hat, können Nutzer eines iPhones inzwischen zwar selbst wählen. Tendenziell präsentiert Apple das Programm aber als weibliche Assistentin. Die Art und Weise wie das passiert, ist mitunter fragwürdig. In einem Werbespot etwa lässt das Unternehmen Schauspieler Jamie Foxx mit Siri flirten – das Klischee der sexy Sekretärin drängt sich auf. Die weiblichen Identitäten solcher Programme, ihre weiblich klingenden Namen und gewisse "Verhaltensweisen" wie "ladylike" Antworten werfen die Frage auf, ob diese Programme eine sexistische Denkweise fördern.

Das US-Startup Kasisto hat sich bewusst dagegen entschieden seinem Chatbot MyKai ein Geschlecht zuzuordnen, berichtet "Engadget". Das Unternehmen entwickelt KI-(Künstliche Intelligenz)-Software für Banken. Bei vielen virtuellen Assistenten gibt es Easter Eggs – mehr oder weniger lustige oder clevere Antworten auf Fragen, die über die normalen Funktionen hinausgehen. Jacqueline Feldman entwickelt die Persönlichkeit von MyKai. Sie kritisiert, dass viele Programme auch auf sexistisch erniedrigende Bemerkungen teilweise mit verharmlosen Antworten reagieren.

Sexualisierung von Künstlicher Intelligenz

Der textbasierte Bot MyKai antwortet dem Nutzer bei "Annäherungsversuchen" oder sexistischen Witzen, dass man ihn in Ruhe lassen soll oder es Zeit ist sich wieder den Bankgeschäften zu widmen. Auf anzügliche Bemerkungen reagiert Kai auch mit dem Hinweis, dass es sich um ein Programm und nicht um eine Person handelt. Die Sexualisierung von Künstlicher Intelligenz ist schlecht für die Gesellschaft, so Feldman. Es werde das Klischee unterstrichen, dass Frauen dienen und stets verfügbar sein müssten.

Bei Microsoft hat man länger darüber nachgedacht, welches Geschlecht das Assistenzprogramm Cortana haben soll. Letztendlich haben sich die Entwickler für eine weibliche Person entschieden, da man davon ausgeht, dass Frauen allgemeiner als hilfsbereiter angesehen werden als Männer, erklärt Entwicklerin Deborah Harrison gegenüber "Engadget". So eine Sichtweise ist allerdings auch diskriminierend gegenüber Männern. Zudem wurde als Vorbild für die virtuelle Assistentin eine sexualisiert dargestellte Figur aus einem Videospiel gewählt.

Wahl der Stimme

Bei der Entwicklung von MyKai konnte ein Punkt allerdings ausgeblendet werden: welche Stimme der Bot haben soll. Er ist textbasiert, während Siri, Alexa und Co eine Stimme haben. Dass hier oft von Haus aus weibliche Stimmen gewählt werden, hat nicht ausschließlich damit zu tun, dass die Entwickler eine weibliche Assistentin vor Augen hatten. Es gibt Untersuchungen, die nahelegen, dass Menschen den Tonfall einer weiblichen Stimme als angenehmer empfinden.

Bei Kasisto ist das aber kein Argument, solchen Programmen eine feminine Persönlichkeit zuzuweisen. Offener Sexismus kann man Apple, Microsoft und Co aber nicht vorwerfen. In Großbritannien etwa spricht Siri von Haus aus mit einer männlichen Stimme. Und Microsofts Cortana reagiert auf anzügliche Witzchen wie "Who is your daddy?" mit einem Hinweis auf Microsoft-Gründer Bill Gates. Kasisto-Mitgründer Dror Oren fordert von den Unternehmen dennoch, noch mehr darauf zu achten wie die Persönlichkeit der Assistenten angelegt wird.

Weniger Frauen in der IT-Branche

Olga Russakovsky, die ein Computerwissenschafts-Camp für Mädchen gegründet hat, sieht das Problem teilweise auch darin, dass weniger Frauen an der Erforschung und Entwicklung künstlicher Intelligenz beteiligt sind. Frauen sind in der IT-Branche noch immer unterrepräsentiert. Viele große Konzerne versuchen dem mit gezielten Initiativen entgegenzusteuern, kommen aber nur langsam voran. Für Russakovsky müssen Programme nicht komplett genderneutral sein, es gehe aber darum, Vorurteile abzubauen. Und selbst bei einer künstlichen Persönlichkeit, die keine Gefühle hat und nicht beleidigt werden kann, ist eine stereotype Darstellung nicht hilfreich, wenn es darum geht von Klischees wegzukommen. (red, 18.8.2016)

  • Vorbild für Microsofts virtuelle Assistentin Cortana ist eine gleichnamige Gestalt aus einem Videospiel.
    foto: microsoft

    Vorbild für Microsofts virtuelle Assistentin Cortana ist eine gleichnamige Gestalt aus einem Videospiel.

Share if you care.