"KI im Militär sollte uns Sorgen machen"

    Interview mit Video5. Juni 2019, 07:29
    65 Postings

    Künstliche Intelligenz ist weit davon entfernt, die Menschheit zu unterjochen, sagt der Informatiker Bernhard Schölkopf – Gefahren gebe es im militärischen Bereich

    Europa darf nicht den Anschluss bei der Entwicklung von künstlicher Intelligenz verlieren – Bernhard Schölkopf, einer der führenden Forscher im Bereich des maschinellen Lernens, lässt kaum eine Gelegenheit verstreichen, die Öffentlichkeit in Sachen künstlicher Intelligenz "wachzurütteln".

    Anlässlich des zehnjährigen Bestehens des Institute of Science and Technology (IST) Austria hält er diese Woche einen Vortrag in Klosterneuburg, wo er sich mit den Chancen und Herausforderungen von künstlicher Intelligenz beschäftigt und damit, welchen Beitrag Europa dabei leisten kann.

    STANDARD: Herr Schölkopf, Sie forschen zu maschinellem Lernen. Wie lernen Maschinen?

    Schölkopf: Bei maschinellem Lernen geht es darum, dass sich Maschinen durch Erfahrungen verbessern. Maschinen sollen durch Beobachtungen lernen, bestimmte Aufgaben zu erfüllen. Diese Aufgaben könnte man ihnen nur mit großen Schwierigkeiten einprogrammieren. Man hat früher versucht, Computern Regeln einzuprogrammieren, wie man Objekte erkennt, aber das hat nicht funktioniert. Die Unterschiede durch Beobachtungsrichtung oder Beleuchtung sind zu groß. Man hat daher einen anderen Weg gewählt und orientiert sich daran, wie Menschen oder Tiere lernen. Wir bekommen ja auch keine Regeln einprogrammiert, sondern lernen aus Beobachtungen.

    falling walls foundation
    Wie maschinelles Lernen die Informationsverarbeitung revolutionieren kann, erklärte Bernhard Schölkopf in einem Vortrag bei der Berliner Konferenz Falling Walls im November 2018. Video: Falling Walls

    STANDARD: Ihr Spezialgebiet ist Kausalität bei maschinellem Lernen – worum geht es dabei?

    Schölkopf: Maschinelles Lernen basiert auf statistischen Abhängigkeiten. Ein Beispiel: Wenn man sich die Daten zur Häufigkeit von Klapperstörchen in europäischen Ländern und der Geburtenrate bei Menschen ansieht, zeigt sich, dass diese beiden Größen korrelieren. Wir wissen natürlich, dass es keinen direkten kausalen Zusammenhang gibt, aber das ist dem maschinellen Lernen egal, solange es eine Korrelation gibt. Wir gehen davon aus, dass diese Abhängigkeit fundamental durch eine kausale Struktur bedingt ist, nur ist diese oft sehr komplex. Im maschinellen Lernen verschließen wir die Augen vor den kausalen Strukturen und versuchen, Korrelationen zu finden. Aber das Potenzial davon ist begrenzt. Intelligente Systeme sollen nicht nur dasitzen und beobachten, sondern sie sollten Modelle bauen, um mit der Umgebung zu interagieren und vorhersagen zu können, wie die Welt auf ihre Interaktionen reagieren wird.

    STANDARD: Welche Rolle könnte maschinelles Lernen bei den großen globalen Herausforderungen wie dem Klimawandel spielen?

    Schölkopf: Eine wesentliche Voraussetzung ist zu verstehen, welche Auswirkungen Eingriffe in das Klima haben. Methoden des maschinellen Lernens könnten eine Rolle dabei spielen, diese Kausalzusammenhänge richtig zu verstehen. Es gibt natürlich auch viele kleinere Anwendungsbereiche. Wenn man etwa bedenkt, wie viele Lastwägen leer durch die Gegend fahren, gibt es ein großes Potenzial, viel Energie zu sparen, und künstliche Intelligenz wird eine Rolle bei solchen Effizienzsteigerungen spielen.

    STANDARD: Welchen Einfluss könnte maschinelles Lernen auf die Wissenschaft haben?

    Schölkopf: In vielen Wissenschaftsbereichen werden zunehmend Datenmengen erhoben, die so groß sind, dass kein Mensch sie sich je ansehen kann. Beispielsweise in der Astronomie, aber auch in der Biologie und Medizin. Diese Daten werden immer mehr durch maschinelles Lernen untersucht werden. Ein Problem dabei ist die Generalisierung. Das Ziel ist, aus Datenmengen Hypothesen zu bilden, die auch über diese Datenmenge hinaus Gültigkeit haben. Das ist das gleiche Problem, vor dem auch Wissenschafter stehen: Sie machen Beobachtungen und versuchen, daraus ein allgemeines Gesetz abzuleiten. Ich glaube nicht, dass Wissenschafter in näherer Zukunft durch maschinelles Lernen ersetzt werden, denn wir wissen nicht, wo die Kreativität dann herkommen sollte, die in der Wissenschaft eine wesentliche Rolle spielt. Ich denke aber, wir sind hier am Anfang einer revolutionären Entwicklung. In absehbarer Zukunft wird bei jedem Krebspatienten das Erbgut der Tumorzellen sequenziert werden, und intelligente Verfahren werden individualisierte Therapieempfehlungen geben.

    STANDARD: Einige Intellektuelle argumentieren, man sollte sich schon jetzt Gedanken machen, wie mit einer künstlichen Intelligenz umzugehen ist, die menschliche Intelligenz ganz allgemein übertrifft. Teilen Sie diese Meinung oder sind wir davon so weit entfernt, dass solche Gedanken müßig sind?

    Schölkopf: Meine Meinung ist: sowohl als auch. Ich denke, wir sind noch extrem weit davon entfernt. Ich will aber kein Denkverbot aussprechen. Es ist ein interessantes Problem, über so etwas philosophisch oder soziologisch nach zudenken. Mich interessiert das auch und ich lese gerne Science-Fiction. Aber wenn wir ehrlich sind, ist es völlig unrealistisch, dass es eine allgemeine künstliche Intelligenz zu unseren Lebzeiten geben wird – natürlich mit dem Vorbehalt, dass Vorhersagen immer schwierig sind. Wenn man sich ansieht, welche Dinge jetzt gut funktionieren, ist das in den allermeisten Fällen Mustererkennung aus großen Datenmengen. Zu einer allgemeinen Intelligenz in vielen verschiedenen Bereichen gehört schon noch viel mehr. Darüber würde ich mir keine Sorgen machen. Es gibt viele andere Probleme, über die man sich viel mehr Sorgen machen sollte, zum Beispiel den Klimawandel. Wenn man sich im Bereich der künstlichen Intelligenz Sorgen machen will, dann sollte man eher die Frage stellen: Welche militärischen Anwendungen von künstlicher Intelligenz sind möglich, die potenziell kommen werden?

    STANDARD: Warum ist es Ihrer Meinung nach wichtig, dass sich Europa bei künstlicher Intelligenz verstärkt einbringt?

    Schölkopf: Ich versuche immer, die Menschen in Europa wachzurütteln, dass wir uns zusammentun sollten, damit diese Art der Forschung, die die Welt verändern wird, auch verstärkt in Europa passiert. Diese Revolution wird Auswirkungen auf sehr viele Bereiche haben. Ich habe kein Patentrezept dafür, wie wir sie gestalten sollten. Aber ich habe das Gefühl, dass es gut ist, wenn diese Revolution nicht nur in Amerika und in China passiert, sondern auch in den europäischen Gesellschaften gestaltet wird. Viele europäische Wissenschafter haben sich in der Initiative "European Lab for Learning and Intelligent Systems" (ELLIS) zusammengetan, um gemeinsame Forschungsaktivitäten zu starten, aber wir brauchen noch mehr Rückenwind von der Politik. (Tanja Traxler, 5.6.2019)


    Bernhard Schölkopf (51) ist Direktor am Max-Planck-Institut für intelligente Systeme in Tübingen. Er ist Gründungsmitglied der ELLIS-Initiative. 2018 wurde er mit dem Gottfried-Wilhelm-Leibniz-Preis ausgezeichnet.


    Hinweis: Berhard Schölkopf spricht am 6. Juni um 18 Uhr zum Thema "Can Europe catch up in artificial intelligence?". Der Vortrag wird vom Institute of Science and Technology (IST) Austria und der Österreichischen Akademie der Wissenschaften (ÖAW) veranstaltet und findet in der Raiffeisen Lecture Hall am IST-Campus in Klosterneuburg statt.

    Links:

    • Bernhard Schölkopf ist Direktor am Max-Planck-Institut für intelligente Systeme in Tübingen.
      foto: leopoldina/markus scholz

      Bernhard Schölkopf ist Direktor am Max-Planck-Institut für intelligente Systeme in Tübingen.

    • In der Science-Fiction kursiert eine Vielzahl an Dystopien zu künstlicher Intelligenz. Für den Informatiker Bernhard Schölkopf ist das kein Anlass, sich über KI im Allgemeinen Sorgen zu machen. Anders sieht es bei militärischen  Anwendungen aus.
      foto: getty/istock/waxwaxwax

      In der Science-Fiction kursiert eine Vielzahl an Dystopien zu künstlicher Intelligenz. Für den Informatiker Bernhard Schölkopf ist das kein Anlass, sich über KI im Allgemeinen Sorgen zu machen. Anders sieht es bei militärischen Anwendungen aus.

    Share if you care.