Europas Plan für eine sichere künstliche Intelligenz

    8. April 2019, 14:05
    44 Postings

    Ethikleitlinien einer EU-Expertengruppe sollen "vertrauenswürdige und sichere KI" realisierbar machen

    Künstliche Intelligenz (KI) könnte unsere Gesellschaft nachhaltig verändern. – von selbstfahrenden Autos über selbstlernende Überwachungssysteme bis hin zu automatisierten Finanztransaktionen und medizinischen Diagnosen. Dabei stellt sich die Frage, wie sichergestellt werden kann, dass diese intelligenten Systeme nicht missbraucht werden und so konzipiert sind, dass sie Menschen keinen Schaden zufügen können.

    Eine Expertengruppe der Europäischen Kommission von mehr als 50 Wissenschaftern, Entwicklern, Rechtsexperten und Industrievertretern hat nun Ethikleitlinien zur Entwicklung vertrauenswürdiger künstlicher Intelligenz vorgestellt.

    Fundament, Methoden und Überprüfung

    Nach diesem Rahmen wird erstens das ethische Fundament definiert, auf dem die Entwicklung von KI aufsetzen soll. Zweitens werden technische und nichttechnische Methoden festgehalten, die die Implementierung der ethischen Prinzipien über die gesamte Laufzeit einer KI ermöglichen sollen. Und drittens wird eine konkrete Checkliste für vertrauenswürdige KI bereitgestellt, die Entwicklern und Herstellern bei der Prüfung ihrer Systeme hilft.

    Diesen drei Komponenten müsste man über die über die gesamte Laufzeit eines Systems gerecht werden, heißt es in den Leitlinien. Vertrauenswürdige KI sollte daher gesetzeskonform und ethisch sowie aus technischer und sozialer Sicht robust sein.

    Instrument fürs Allgemeinwohl

    Ziel dieser Leittlinien ist es, die 2018 von der Europäischen Kommission kommunizierte Vision von "ethischer, sicherer und hochmoderner KI, entwickelt in Europa", realisierbar zu machen. Dieser Vision nach sollen die öffentlichen und privaten Investitionen in KI gesteigert, Vorbereitungen für die sozioökonomischen Veränderungen getroffen und ein entsprechender ethischer und rechtlicher Rahmen zur Stärkung der europäischen Werte geschaffen werden.

    "Wir glauben, dass KI das Potenzial hat, die Gesellschaft zu transformieren", schreibt die Expertengruppe. "KI ist ein vielversprechendes Instrument, um das menschliche Gedeihen zu fördern und damit das individuelle und gesellschaftliche Wohlergehen zu steigern und zugleich für Fortschritt und Innovation zu sorgen." Speziell könne gemeinnützig eingesetzte KI dazu beitragen, die UN-Ziele für die nachhaltige Entwicklung zu erreichen. Dazu gehören die geschlechtliche Gleichstellung, die Eindämmung des Klimawandels sowie eine Verbesserung der individuellen und allgemeinen Gesundheit oder der umsichtige Umgang mit natürlichen Ressourcen und die Verbesserung von Produktionsprozessen.

    Reale Gefahren

    Obwohl sich KI-Entwicklung noch in einem Frühstadium befindet, ist das Risiko eines schädlichen oder gar missbräuchlichen Einsatzes dieser Technologien groß, warnen Experten. Angefangen von Überwachungssystemen, die aufgrund fehlerhafter oder manipulierter Daten bestimmte Bevölkerungsgruppen grundlos ins Visier nehmen bis hin zu autonomen Fahrzeugen oder Industrierobotern, die Menschen aufgrund technischer Mängel oder Unzulänglichkeiten verletzen können. Ein weiteres Problem stellt die oftmals schwierige Nachvollziehbarkeit von KI-Entscheidungen dar. So können beispielsweise Entwickler von Übersetzungssoftware schon heute nicht mehr die Prozesse rekonstruieren, die Google Translate und Co zur Übersetzung von Texten einsetzen. Ein Problem, das sich hier nicht gravierend auswirkt. Bei intelligenten Waffensystemen wäre ein derartiger Mangel an Transparenz wiederum deutlich problematischer.

    Test und Realisierbarkeit

    Die EU-Expertengruppe, der mit den Professoren Sabine Theresia Köszegi und Mark Coeckelbergh auch Vertreter der TU Wien und der Universität Wien angehören, schickt die ethischen Leitlinien zur Entwicklung vertrauenswürdiger künstlicher Intelligenz im Sommer in eine Pilotphase, um Feedback zur praktischen Umsetzung sammeln zu können. Interessenten können im Rahmen der "European AI Alliance" teilnehmen. Eine adaptierte Fassung, die die Rückmeldungen aller Interessenvertreter berücksichtigt, soll Anfang 2020 der Europäischen Kommission vorgelegt werden.

    Die EU-Kommission ist mit ihren Anstrengungen hinsichtlich vertrauenswürdiger KI nicht allein. Bereits 2018 gab in den USA beispielsweise das AI Now Institute der New York University einen Bericht mit Empfehlungen für die gesetzliche Regulierung von KI heraus. Auch das Massachusetts Institute of Technology setzt bei seiner KI-Entwicklung Richtlinien ein, die für sichere Systeme sorgen sollen. Eine staatliche Initiative dazu gibt es bislang jedoch nicht. (zw, 8.4.2019)

    • Die chinesische Regierung setzt KI unter anderem für ein zentrales Überwachungssystem ein. Die Gefahr des Missbrauchs oder eines fehlerhaften Einsatzes ohne ethische Rahmenbedingungen ist groß.
      foto: reuters/thomas peter

      Die chinesische Regierung setzt KI unter anderem für ein zentrales Überwachungssystem ein. Die Gefahr des Missbrauchs oder eines fehlerhaften Einsatzes ohne ethische Rahmenbedingungen ist groß.

    Share if you care.