Warum künstliche Intelligenz (noch) keine Gefahr für Menschen ist

    15. November 2018, 13:54
    65 Postings

    Und wieso staatliche Regulierung trotzdem notwendig ist – Google gibt Einblick in die KI-Forschung

    Stellt künstliche Intelligenz eine fundamentale Gefahr für die Menschheit dar? Tesla-Chef Elon Musk ist davon überzeugt und warnt seit Jahren mit der ihm eigenen Vehemenz vor den Gefahren einer ungebremsten Forschung in diesem Bereich. Und mit dieser Position steht er bei weitem nicht allein da: So hatte etwa der berühmte Physiker Stephen Hawking kurz vor seinem Ableben noch betont, dass die KI-Forschung zwar riesige Chancen für die Menschheit biete, die Gefahr eine Missbrauchs aber ebenfalls nicht zu unterschätzen sei – und es insofern strikter Kontrolle bedarf.

    Einstimmigkeit

    Ist also zu befürchten, dass sich hier die nächste Konfliktlinie zwischen staatlichen Behörden und in diesem Bereich forschenden Unternehmen auftut? Nicht notwendigerweise, stimmen doch einige der großen Player in diesem Bereich der Forderung nach klaren Spielregeln zu. Bei Google, einem der umtriebigsten Unternehmen im Bereich künstliche Intelligenz, geht man sogar einen Schritt weiter: Es brauche in diesem Bereich klare internationale Vorschriften, die bestimmen, was erlaubt ist und was nicht, betonte Jen Gennai, Head of Ethical Machine Learning bei Google, vor kurzem im Rahmen des "Making AI"-Events in Amsterdam.

    foto: google
    Jen Gennai, Head of Ethical Machine Learning.

    Google selbst hat sich vor einigen Monaten einer Reihe von "KI Prinzipien" verschrieben. Darin setzt man sich etwa zum Ziel, dass die Forschung generell dem sozialen Fortschritt dienen muss, auch grundlegende Sicherheits- und Privacy-Regeln sind in diesem Regelwerk enthalten. Zudem soll keinerlei KI-Forschung für Waffensysteme betrieben werden – eine Vorschrift, die ganz konkret zum Ende einer zuvor betriebenen Kooperation mit dem US-Verteidigungsministerium geführt hat. Außerdem verspricht Google, darauf zu achten, dass die KI möglichst unbefangen agiert.

    Kein Ersatz

    Und doch betont Google, dass dies keine staatlichen Regeln ersetzen kann. Es sei an den Regierungen, hier – möglichst bald – auf internationaler Ebene ein Regelwerk auszuarbeiten. Natürlich könnte sich auch einfach Google mit anderen in diesem Bereich aktiven Firmen wie Amazon, Microsoft oder Tencent zusammensetzen und sich auf einen Minimalkonsens einigen. Genau das wolle man aber nicht. Solche Regeln sollten von der Gesellschaft bestimmt werden und nicht von einzelnen, mächtigen Konzernen, meint Gennai.

    Grundlegende Ablehnung

    Jeff Dean, Leiter der gesamten KI-Abteilung bei Google, geht noch einen Schritt weiter: Es gebe gewisse Bereiche, von denen man sich generell fernhalten sollte – einer davon sei eben die Entwicklung von autonomen Waffen. Bei anderen Bereichen brauche es wiederum eine klare Regulierung, aktuell sei dies beispielsweise die Frage, was alles mit Gesichtserkennung erlaubt sein soll.

    Zudem betont Dean aber noch einen anderen Punkt, der ihm in den aktuellen Diskussionen zu kurz kommt: die Frage nach den Auswirkungen auf den Arbeitsmarkt. Ein Paradebeispiel hierfür seien selbstfahrende Autos: Diese könnten dank künstlicher Intelligenz jährlich Millionen Menschen das Leben retten, gleichzeitig werden sie aber auch zahlreiche Jobs kosten – daran führe kein Weg vorbei. Der Beruf des Lastwagenfahrers werde dadurch etwa weitgehend obsolet werden, bei Taxifahrern sieht die Prognose nicht viel anders aus. Bis das wirklich alles schlagend wird, mögen noch einige Jahre vergehen, genau deswegen sei es aber jetzt an der Zeit, dass sich die Gesellschaft die Frage stelle, wie man die davon betroffenen Menschen auffangen könne.

    KI steht erst am Anfang

    Bei all dem betont das Unternehmen aber auch, wie weit das, was wir heute als künstliche Intelligenz bezeichnen, noch von dem entfernt ist, was sich die breite Masse unter dem Begriff erwartet. Eine Übernahme der Weltherrschaft durch künstliche Intelligenz sei derzeit allein schon deswegen nicht möglich, weil diese momentan noch recht simpel gestrickt ist, wie Olivier Bousquet, Googles AI-Chef für Europa, betont.

    foto: google
    Olivier Bousquet, Head of Google AI in Europe.

    Das, was wir heute als künstliche Intelligenz bezeichnen, wird von Forschern selbst lieber Maschinenlernen genannt. Dabei wird ein sogenanntes neuronales Netz sehr gezielt auf ein einzelnes Ziel trainiert, und kann dann auch nichts anderes. Eine KI, die Sprache erkennt, kann also keine Objekte in Bildern identifizieren – und umgekehrt. Mit einem generellen Verständnis der Welt hat dies also nichts zu tun. Trotzdem sieht Bousquet auch in der eigenen Forschung noch Verbesserungsbedarf. So verstehe man derzeit noch oft nicht im Detail, wo ein neuronales Netz wann eine spezifische Entscheidung fälle. Hier brauche es noch bessere Analysetools.

    Der Universalübersetzer ist nah

    Ein Paradebeispiel dafür, wo aktuelle KI bereits große Erfolge erzielt, ist die Spracherkennung. Diese hat in den vergangenen Jahren rasante Fortschritte gemacht. Dank neuer Modelle könnten neuronale Netze mittlerweile ganze Sätze "verstehen" und analysieren anstatt wie bisher nur einzelne Wörter, streicht Jakob Uszkoreit, Leiter der Berliner KI-Abteilung von Google heraus. Google selbst hat hierzu erst unlängst unter dem Namen BERT eine neue Technik zum Vortrainieren neuronaler Netze als Open Source freigeben. Diese schneidet in standardisierten Tests wie dem Stanford Question Answering Dataset mittlerweile bei der Spracherkennung besser als Menschen ab. Aber auch solche Vergleiche sind sehr relativ, wie Uszkoreit betont. Mit einem echten Verständnis von Sprache habe dies nämlich wenig zu tun. Dafür müsste die Maschine auch wissen, wie wir die Welt sonst wahrnehmen – und das sei derzeit einfach unmöglich.

    Google-AI-Chef Jeff Dean sieht bei der Spracherkennung ebenfalls eine der größten Erfolgsgeschichten von Maschinenlernen. Immerhin stehe man derzeit knapp davor, Sprache in Echtzeit übersetzen zu können – etwas, das vor wenigen Jahren noch komplett undenkbar gewesen sei oder bestenfalls dem Bereich der Science-Fiction zugeordnet wurde.

    Training

    Uszkoreit gibt dabei auch einen Einblick, auf welchem Weg man zu solch guten Ergebnissen kommt. Für BERT nutze man unter anderem Texte von Wikipedia, bei denen gegenüber dem neuronalen Netzwerk immer wieder einzelne Begriffe ausgeblendet werden. Dadurch entwickelt es nach und nach eine Art Verständnis davon, wie ein Satzaufbau funktioniert und in welchem Verhältnis einzelne Begriffe zu anderen stehen.

    foto: google
    Die Bilderkennung ist eine der großen Stärken von Maschinenlernen.

    Genau dies zeigt aber auch, wie wichtig die Wahl des zum Trainieren gewählten Datensatzes ist. Immerhin basiert das Verständnis der resultierenden KI darauf, was ihr zuvor vorgesetzt wurde. Wählt man nun Texte, die mit veralteten gesellschaftlichen Vorstellungen gespickt sind, könne dies durchaus problematisch werden – und die Nutzer eines darauf basierenden Dienstes vor den Kopf stoßen. Ein Beispiel hierfür nennt Jen Gennai, die Leitern von Googles "Ethical Machine Learning"-Abteilung: Kurz vor der Veröffentlichung der Smart-Reply-Funktion in Gmail, die den Nutzern automatische Antwortvorschläge unterbreitet, habe man bemerkt, dass diese eine starke Neigung zu Rollenklischees hegte. So wurden immer wieder für gewisse Berufe fix männliche oder weibliche Formen verwendet – und zwar unabhängig davon, um wen es in der Ursprungsmail ging. Hier müsse man dann eben manuell nachbessern.

    Genau so etwas sei auch der Grund dafür, warum jedes neue Projekt von Google, das KI nutzt, zunächst einer Prüfung unterzogen werden muss. Dabei versuche man gezielt Fehler zu provozieren, betont Gennai. Und sollten sich dadurch tatsächlich grobe Defizite zeigen, könne das eigene Team sogar die Verschiebung des Launch-Termins eines neuen Produkts erzwingen.

    Diversität

    Für die Entwicklung einer möglichst für alle Menschen zuträglichen KI ist es aber auch wichtig, viele unterschiedliche Perspektiven einfließen zu lassen, streicht Google heraus. Und das bezieht sich nicht bloß auf das Datenmaterial, sondern auch auf die Forschung. Nicht zuletzt deswegen hat das Unternehmen unlängst eine eigene AI-Forschungsabteilung in Ghana gegründet. Deren Leiter, Moustapha Cisse, erinnert daran, dass sich nicht überall auf der Welt die gleichen Herausforderungen stellen. So greife Sprach-KI zum Training bisher auf riesige Textquellen zurück. Und das stellt ein Problem für Regionen der Welt dar, wo entsprechende Materialien nicht in ähnlichem Ausmaß frei verfügbar sind. Insofern gelte es hier grundlegend andere Wege zu finden.

    foto: google
    Moustapha Cisse (rechts), Head of Google AI in Accra (Ghana).

    Gleichzeitig ist Cisse aber auch davon überzeugt, dass KI in Afrika auch ein wesentlich größeres Potenzial habe, zur Verbesserung der sozialen Verhältnisse beizutragen. So gebe es selbst innerhalb einzelner Ländern oft eine Vielzahl unterschiedlicher Sprachen, eine automatische Übersetzung wäre hier ein wichtiger Fortschritt für den Alltag. Aber auch zur Warnung vor Fluten oder zur Optimierung des landwirtschaftlichen Anbaus könne KI eine wichtige Rolle spielen – zwei Projekte, an denen Google derzeit entsprechend ebenfalls arbeitet. Das größte Potenzial könnte es aber wohl in der Gesundheitsversorgung geben, immerhin könnte KI Ärzten viele Arbeiten abnehmen. Das reicht von Erledigung des täglichen Papierkrams bis zur Analyse von Röntgenbildern.

    Gesundheit

    Müssen wir also künftig der Maschine statt dem Menschen vertrauen, wenn es um ärztliche Diagnosen geht? Nicht unbedingt, meint Katherine Chou, Produktchefin der Healthcare-Abteilung von Google AI. In den eigenen Untersuchungen zeige sich, dass die beste Kombination meist jene aus Maschine und Spezialist sei. Gleichzeitig belege das Datenmaterial aber auch, wie viel Potenzial für bessere Diagnosen es derzeit gibt – und nicht bloß schnellere. Die eigenen Studien zum Thema Blindheit zu Diabetes hätten ergeben, dass Ärzte in ihren Befunden im Schnitt lediglich zu 60 Prozent mit ihren Kollegen übereinstimmen. Die wirklich relevante Zahl ist aber eine andere, stimmen Ärzte doch auch nur unwesentlich öfter mit ihren eigenen Einschätzungen in anderen Fällen überein – hier liegt der Wert bei 65 Prozent. Jede Menge Potenzial für intelligente Systeme also, hier zu besseren Ergebnissen zu kommen. (Andreas Proschofsky, 15.11.2018)

    Share if you care.