Gesichtserkennung: Wenn das Smartphone weiß, dass wir wütend sind

14. Jänner 2015, 11:00
21 Postings

In den vergangenen Monaten gelang der Durchbruch im "Affective Computing"

"In einigen Jahren werden wir uns darüber wundern, dass Smartphones einst nicht wussten, dass wir sie gerade böse anschauen": Das glaubt Rana El Kaliouby, die momentan als neuester "Rockstar" unter den Start-up-Gründern gilt. Die 36-jährige gebürtige Ägypterin leitet das Unternehmen Affectiva, das laut eigenen Angaben von "Geheimdiensten, Pepsi, Microsoft, HP, Toyota, der Bank of America und der NASA" hofiert wird.

Emotions-Übersetzer für Autisten

Und das alles, obwohl Kaliouby eigentlich in einem Nischengebiet tätig war: Gemeinsam mit ihrer ehemaligen Universitätsprofessorin Rosalind Picard forschte sie am renommierten MIT zu einem "Übersetzungsprogramm" für Autisten. Diese haben Schwierigkeiten damit, Emotionen ihres Gegenübers ausreichend zu erkennen. Eine Anwendung sollte nun menschliche Gesichter in eine Masse an kleinen Knoten aufschlüsseln. Dann legt das Programm "Anker", also unbewegliche Punkte (wie die Nasenspitze), und "flüssige" Punkte (etwa die Lippen) fest. Durch die Relation zwischen Ankern und beweglichen Knoten können nun Gesichtsausdrücke und somit Emotionen gemessen werden.

Universelle Möglichkeiten

Ein Durchbruch, der plötzlich für Interesse sorgte – denn die Einsatzmöglichkeiten der Emotionserkennung sind nahezu universell. "Ich wollte die Technologie nicht kommerzialisieren", sagt Kaliouby im "New Yorker". Allerdings überzeugte sie schließlich Frank Moss, der das Media Lab des MIT betreut, von einer Zusammenarbeit mit Konzernen. Die Technologie werde um einiges robuster, wenn sie dem Spiel der freien Kräfte ausgesetzt werde, so Moss – und außerdem könnten die Einnahmen zur Unterstützung der Autismus-Anwendung genutzt werden.

Alle wollen Emotionen erkennen

Nach einigem Hin und her entschied sich Kaliouby, diesem Rat zu folgen. Allerdings beschloss sie, die im repressiven Ägypten aufgewachsen war, nie mit Geheimdiensten zusammenzuarbeiten (denen aber natürlich eigene Forschungsfortschritte zuzutrauen sind). Schon bald kamen erste Anfragen ein: Pepsi wollte den Gesichtsausdruck von Produkttestern analysieren; Toyota den seiner Testfahrer. Die US-Fernsehsender FOX und CBS wollen neue Serienpiloten vor Testpublikum abspielen, und prüfen, wie bestimmte Storylines ankommen. Etc. etc.

Rockstars

Mittlerweile gelten Affectiva und dessen Vorzeigeprogramm "Affdex" (der ursprüngliche Übersetzer für Autisten) als absolute Geheimtipps in der US-amerikanischen IT-Branche. Zahlreiche namhafte Manager, Entwickler und Marketingexperten sind 2014 zu Affectiva gewechselt, ebenso soll es Verhandlungen mit finanzstarken Investoren geben. Aber das Start-up ist in dem Forschungsbereich, der "Affective Computing" genannt wird, alles andere als allein. Experten sehen hier – neben dem Internet der Dinge – das vielleicht wichtigste Forschungsfeld der Zukunft.

edemante

IBM und Co naschen mit

Denn natürlich steht das "Deep Learning" von Rechnern, also die Entstehung immer klüger werdender, aus Fehlern lernender Maschinen, schon seit Jahrzehnten auf der Agenda der großen Hersteller wie IBM, Microsoft und Intel. Auch "neue" Platzhirsche wie Google und Facebook stecken Millionen in die Forschung. Allerdings habe man in den letzten Jahren erkannt, dass Maschinen nie wirklich "klug" sind, wenn sie die Emotionen ihrer Besitzer nicht verstünden, schreibt der "New Yorker". Der Grund dafür: In unserer Kommunikation geben wir Informationen nicht nur durch Worte wieder, sondern auch durch Stimme, Gestik, Mimik und den Satzbau. Programme können mittlerweile etwa allein an der Tonalität eines Gesprächs erkennen, ob zwei Personen etwa Mutter und Sohn sind.

Depressionserkennung

Neben dem kommerziellen Einsatz – zu sehen ist das etwa schon bei Microsofts Kinect-Anwendung für die Xbox One, auch Verizon plant eine "emotionsreaktive" Konsole – hoffen Forscher vor allem auf medizinische Fortschritte. Neben dem Emotionsübersetzer für Autisten könnten etwa Depressionen erkannt werden. Auch in der Altenpflege sind die Verwendungsmöglichkeiten vielfältig.

Datenschutz: Bedenken

Allerdings gibt es massive datenschutzrechtliche Bedenken. Klar: Informationen darüber, wie wir uns fühlen, ob wir lügen et cetera, gehen schon stark in Richtung eines "Gedankenlesens". Deshalb auch Kalioubys Dogma, nie mit Geheimdiensten zusammenzuarbeiten. Genauso streng will sie aber kontrollieren, dass Konzerne via "Affdex" generierte Informationen nicht speichern, um Persönlichkeitsprofile zu erstellen. Die Daten sollen für den jeweiligen Augenblick in der Anwendung und anonymisiert in der Masse zu Forschungszwecken verwendet werden. Für Datenschützer tut sich jedenfalls eine neue Front auf. (Fabian Schmid, derStandard.at, 14.1.2015)

  • Der "gläserne Mensch"? Affectiva bestreitet, Gedanken lesen zu können. Das Programm funktioniert schlechter als das menschliche Gehirn, so die Entwickler.
    screenshot/affectiva

    Der "gläserne Mensch"? Affectiva bestreitet, Gedanken lesen zu können. Das Programm funktioniert schlechter als das menschliche Gehirn, so die Entwickler.

  • Allerdings trifft "Affdex" die Emotionen der Beobachteten sehr akkurat, wie Experimente beweisen.
    screenshot/affectiva

    Allerdings trifft "Affdex" die Emotionen der Beobachteten sehr akkurat, wie Experimente beweisen.

  • Schon jetzt wird das Programm etwa bei der Testung von Werbeclips und TV-Sendungen eingesetzt.
    screenshot/affectiva

    Schon jetzt wird das Programm etwa bei der Testung von Werbeclips und TV-Sendungen eingesetzt.

Share if you care.