Microsoft-Ethikchef: "Silicon Valley soll nicht entscheiden, was KI darf"

    Interview21. Februar 2019, 11:41
    12 Postings

    Tim O'Brien plädiert für Selbstregulation der Technikgiganten, solange die Politik nicht gewissen Technologien Einhalt wie Gesichtserkennungssoftware Grenzen setzt

    Viele Menschen beunruhigt die Tatsache, dass zahlreiche Waffensysteme schon bald überhaupt keine menschliche Komponente mehr brauchen werden. Auch wird die Beeinflussung von Wahlen und demokratischen Strukturen mittels Chatbots und der Weiterverbreitung von Falschnachrichten zu einem immer häufigeren Problem. Die unaufhaltsam voranschreitende Ziviltechnik liefert immer mehr Möglichkeiten für deren bösartige Verwendung.

    Kurz vor dem Exklusiv-Interview mit dem STANDARD sprach der beim Technikgiganten Microsoft für ethische Fragen zuständige Tim O'Brien in seiner Keynote-Speech anlässlich des WeAreDelevopers-Kongresses in Wien hauptsächlich über die Vorzüge künstlicher Intelligenz, was im eigentlichen Sinne meist sehr ausgereifte Formen des Maschinenlernens sind. Diese erlauben es bereits heute, etwa Powerpoint-Präsentationen einfacher zu arrangieren oder Postfächer insofern intelligenter zu machen, als dass sie erkennen, was einem Nutzer tatsächlich wichtig ist.

    STANDARD: In Ihrer Keynote sprachen Sie viel über die Vorzüge, die künftig von künstlicher Intelligenz zu erwarten sind. Lassen Sie uns aber zuerst über die potenziell negativen Aspekte sprechen. Welche drei Anwendungsbereiche bereiten Ihnen die meisten Sorgen?

    O'Brien: Das wären wohl Bias- und Maschinenlernen, die verantwortungsvolle Entwicklung von Chatbots und generell Konversations-KI, aber auch die Gesichtserkennungssoftware und der Umgang damit, im Speziellen zu Überwachungszwecken durch Staaten. Diese drei Bereiche bedürfen sehr sorgsamer Aufmerksamkeit.

    STANDARD: Was befürchten Sie bei der Überwachung durch Staaten? Das in China bereits in Teilen implementierte Social-Credit-System beunruhigt viele Europäer.

    O'Brien: Es geht um den Gedanken der Privatsphäre als Menschenrecht. Das ist eine Überzeugung, die wir bei Microsoft vertreten. Dass diese Techniken dieses Menschenrecht verletzten könnten, besorgt uns. Das muss innerhalb der Branche diskutiert werden, um gewisse Policyrichtlinien zu definieren, die diese Menschenrechte garantieren.

    STANDARD: Wer KI googelt und dabei auf Youtube landet, findet sofort etliche Videos zu KI-Drohnen, Killerrobotern und dergleichen. Viele Szenarien sind Märchen, aber wir verfügen bereits über teilautonome Waffensysteme, und viele Menschen fürchten sich davor, dass Menschen eines Tages das Töten komplett in die Hände von autonomen Maschinen legen. Wie steht Microsoft zu solchen Entwicklungen?

    O'Brien: Bei Youtube muss man natürlich vorsichtig sein. Da geht es um Klicks. Und auch sind wir noch nicht imstande, vollautonome Waffensysteme zu bauen, zumindest nicht in den Vereinigten Staaten. Wenn ich über vollautonome Waffen spreche, dann rede ich davon, dass sich die Waffensysteme selbstständig für Ziele entscheiden und den Angriff lancieren. So weit sind wir meines Wissens noch nicht. Noch ist stets ein Mensch in der Schleife, der letztlich die Entscheidung trifft. Selbstverständlich gibt es auf der ganzen Welt Diskussionen darüber, wie der technische Fortschritt dies verändern könnte. Im vergangenen Jahr veröffentlichten wir ein White Paper, das Gesichtserkennungssoftware thematisiert. Wir erklärten darin öffentlich zwei Dinge: Wir werden uns selbst in der Geschwindigkeit dieser technischen Entwicklungen regulieren, drosseln. In der Branche ist es oft so: Wenn etwas Neues erfunden wird, wird versucht, es schnellstmöglich und möglichst flächendeckend an möglichst viele Abnehmer zu bringen. Damit haben wir diesmal gebrochen. Wir wollten uns in Bezug auf Gesichtserkennungssoftware diesmal selbst regulieren. Außerdem baten wir die US-Regierung, eine umfassende Studie zu starten, die Möglichkeiten untersucht, Regulationsmechanismen zwischen dem privaten und dem staatlichen Sektor zu finden, um verantwortungsvolle Umgangsformen zu definieren. Das ist durchaus ungewöhnlich. Normalerweise kommt der Regulierungswunsch von staatlicher Seite.

    foto: reuters/damir sagolj
    Gesichtserkennung ist weltweit auf dem Vormarsch. Die Konzerne und Staaten sammeln dadurch immer mehr Daten über die Bürger.

    STANDARD: Wenn Sie sich selbst regulieren, verzichtet eine andere Firma vielleicht darauf und hat so einen Vorteil?

    O'Brien: Genau deshalb muss es der Gesetzgeber vorschreiben.

    STANDARD: Sind die politischen Entscheidungsträger technisch fit genug, um solche komplexen Themen adäquat zu regulieren?

    O'Brien: Manche sind es, manche nicht. Ich will sie nicht unterschätzen. Der staatliche Sektor kann sich aber auch einfach nicht so schnell adaptieren wie die Privatwirtschaft. Das ist eine Realität. Besonders in demokratischen Systemen, wo Veränderungen langsam und auf Basis des Wählerwillens erfolgen, kann das durchaus lange dauern.

    STANDARD: Wer entscheidet aber letzten Endes wirklich darüber, ob etwas moralisch oder ethisch vertretbar ist? Sollen das die Vereinten Nationen oder der Silicon Valley entscheiden? Denn momentan entscheiden allein die Techunternehmen, wie weit sie gehen.

    O'Brien: Silicon Valley soll nicht darüber entscheiden, was künstliche Intelligenz darf und was nicht. Ungewählte Technikbosse sollten nicht die Macht haben, über die Zukunft der Menschheit entscheiden zu können.

    STANDARD: Aber machen sie das nicht gerade?

    O'Brien: Das kommt auf die Unternehmen darauf an. Ich kann nur für Microsoft sprechen: Wir versuchen uns selbst zu regulieren und versuchten proaktiv die US-Regierung einzubinden und aktiv zu werden. Die Macht sollte in demokratischen Prozessen von gewählten Personen ausgeübt werden.

    foto: thomas lutz
    Tim O'Brien plädiert dafür, dass ungewählte Technikbosse nicht die Macht haben sollten, über die Zukunft der Menschheit entscheiden zu können.

    STANDARD: Microsoft hat kürzlich einen 421-Millionen-Euro-Deal mit dem US-Verteidigungsministerium an Land gezogen, um Soldaten mit Augmented-Reality-Brillen auszustatten. Man scheut also diese Berührungspunkte mit dem Militär nicht?

    O'Brien: Nein, keinesfalls. Das Verteidigungsministerium ist einer unserer Kunden, und wir verkaufen unsere Technologie an unsere Kunden. Wir waren da sehr transparent. In den USA gibt es, wie in Österreich, gewisse Richtlinien, in deren Rahmen der private mit dem öffentlichen Sektor Geschäfte machen kann.

    STANDARD: Würden Sie solche Technologien auch an andere Staaten verkaufen?

    O'Brien: Wir halten uns da an gewisse Richtlinien. Was sagt Human Rights Watch, was sagen die Vereinten Nationen? Wir machen uns ein Bild, ob wir mit gutem Gewissen bestimmte Technologien verkaufen können – und je nachdem werden wir zusagen oder höflich ablehnen.

    STANDARD: Chatbots sind bereits in zahlreichen Systemen durchaus hilfreich. Wie wollen Sie garantieren, dass ich als User immer weiß, ob ich mit einem Chatbot oder einem Menschen rede?

    O'Brien: In unseren Guidelines haben wir festgelegt, dass jemand, der mit einem Bot interagiert, das stets wissen soll. Diese Diskussionen kamen auf, als man Bots absichtlich so programmiert hat, dass sie stotterten und Fehler machen wie Menschen, um Leute reinzulegen. Das ist nicht verantwortungsvoll. Chatbots sollten also nicht nur fair und nichtdiskriminierend sein, sondern auch stets klarstellen, dass sie ein Bot sind. Es gibt viele kreative Wege, um das zu garantieren. Wir arbeiten schon lange mit Bots, haben auch unschöne Erfahrungen gemacht und viel daraus gelernt.

    STANDARD: Bots auf sozialen Kanälen, aber auch sogenannte Blasen, in denen sich Menschen aufhalten, haben die Demokratie ein Stück weit verändert. Was blüht uns da noch?

    O'Brien: Das ist wieder so ein Katz-und-Maus-Spiel zwischen guten und bösen Menschen. Künstliche Intelligenz bietet die Möglichkeit, Menschen mittels Fake-Videos zu täuschen. Da sollten wir nicht naiv sein und glauben, dass das so schnell weniger wird. Man wird weiterhin versuchen, die Menschen in die Irre zu führen und böswillige Menschen zu fördern. Aufklärung spielt dabei eine wichtige Rolle. Die Öffentlichkeit muss skeptisch bleiben. Es gibt Firmen, die glauben, dies mit technischen Möglichkeiten zu unterbinden, mit mehr und mehr Algorithmen. Ich halte das für naiv. Menschen müssen aufgeklärt werden und skeptisch bleiben. Das ist ein wichtiger Bruch, der in dieser Generation geschieht. Meine Generation glaubte noch einfach alles, was in den Abendnachrichten kam. Zum Glück ist man heute etwas skeptischer. Das ist wichtig. Denn diese neuronalen Netzwerke verbessern sich permanent durch gegenseitiges Austesten, und es entstehen einfach immer noch besser gefälschte Videos.

    business insider
    Würden Sie das echte vom Fake-Video noch unterscheiden können?

    STANDARD: Welche positiven Entwicklungen erhoffen Sie sich?

    O'Brien: Menschen mit Beeinträchtigungen können künftig extrem von künstlicher Intelligenz profitieren. Einer von sieben Menschen hat irgendeine Form von Beeinträchtigung. 70 Prozent davon sieht man nicht, aber sie existieren. Jeden Tag treffen wir auf Menschen, deren Leben mit Technik vereinfacht oder verbessert werden kann – etwa Seeing AI. In China gibt es aber auch eine App, die heißt Baby Come Home, die das Problem vermisster Kinder mittels Gesichtserkennung und eines berechneten vermuteten Alterungsprozesses adressiert. Aber auch beim Klimawandel und der künftigen Versorgungssicherheit mit Lebensmitteln gibt es Anwendungsmöglichkeiten. Wir wollen helfen, Müll zu reduzieren und Ernten zu optimieren. In der Agrarindustrie kann extrem viel gemacht werden. Und auch in der Medizin: Menschliche Fehler in der Behandlung sind in den USA immer noch die dritthäufigste Todesursache. KI kann Medizinern dabei helfen, bessere Entscheidungen zu treffen.

    microsoft

    STANDARD: Die Technik soll Menschen also dabei unterstützen, bessere Entscheidungen zu treffen. Manche Jobs werden wegfallen, neue werden geschaffen?

    O'Brien: Genau. Viele glaubten, dass Cloud-Computing zahlreiche Jobs killt. In Wahrheit hat es wohl mehr neue geschaffen.

    STANDARD: Verkaufen Politiker oder Medien die potenziellen Vorteile von Digitalisierung, Automatisierung oder Maschinenlernen, eines Tages vielleicht künstlicher Intelligenz, zu schlecht?

    O'Brien: Natürlich verkauft sich jede Weltuntergangsgeschichte und jede Story über die Disruption des Arbeitsmarktes besser, machen wir uns nichts vor. Die negativen Ausblicke stimmten in der Vergangenheit aber auch schon öfters nicht.

    STANDARD: Inwieweit ist kulturelle Diversität wichtig bei der Besetzung von Tech-Jobs?

    O'Brien: Mehr denn je. Microsoft holt Talente aus der ganzen Welt. Kulturelle, ethnische und Genderdiversität sorgen für ausgewogenere Technologien, und das zählt immer mehr, um Voreingenommenheit zu vermeiden. Da geht es auch um Reputation für ein Unternehmen. Man will keine diskriminierende Software entwickeln.

    STANDARD: Mehr als die Hälfte der Welt ist immer noch offline.

    O'Brien: Das ist ein Problem. Da stimme ich zu. Mittels ungenützter Telekommunikationskanäle versuchen wir aber auch beispielsweise WLAN in weit entfernte Regionen zu bringen. Wir machen unseren Teil.

    STANDARD: Unternehmen nehmen also immer öfter Aufgaben war, die eigentlich der Staat garantieren sollte?

    O'Brien: Ich sehe es mehr als Zusammenarbeit. Regierungen müssen selbstverständlich für bestimmte Entwicklungen in ihrem Staat sorgen, aber wir helfen gerne mit der ein oder anderen technischen Lösung. (Fabian Sommavilla, 21.2.2019)

    Tim O'Brien ist seit 2003 beim Technikgiganten Microsoft. Er leitet das Programm für einen ethischen Einsatz von künstlicher Intelligenz.

    Weiterlesen

    Quiz: Was wissen Sie über die Zukunft?

    Share if you care.