Selbstfahrende Autos, Social Bots: Was wird die Technik mit uns anrichten?

Blog14. Jänner 2019, 07:14
87 Postings

Selbstorganisierte Systeme werfen ethische und rechtliche Fragen auf. Wer ist dafür verantwortlich, und wer entscheidet überhaupt?

Unsere Autos werden immer autonomer. Bald könnten sie alle weitgehend selbstständig fahren und an unserer Stelle entscheiden, welche Route die beste ist, ob und wann gebremst wird, welche Sicherheitsmaßnahmen angezeigt sind (zum Beispiel, weil andere selbstfahrende Autos an alle nachfolgenden eine Glatteiswarnung geschickt haben). Vermutlich werden wir als Fahrzeughalter schon noch eine Weile mitentscheiden dürfen – wer die Letztentscheidung treffen wird, ist derzeit aber noch offen – und wer dies besser kann, Mensch oder Maschine, übrigens auch.

Unsere Gesprächspartnerinnen und Gesprächspartner in den sozialen Netzwerken werden immer undurchschaubarer. Viele sind gar keine Menschen mehr. Immer häufiger begegnen wir Algorithmen, sogenannten Social Bots, die mit uns so kommunizieren, als wären sie menschliche Wesen und reale Nutzerinnen und Nutzer von Facebook, Instagram oder Twitter – so wie viele von uns eben auch. Sind sie aber nicht. Sie wurden programmiert, um bestimmte Inhalte zu liken, andere hingegen nicht, um bestimmte Ansichten zu propagieren und den Eindruck zu erwecken, eine Vielzahl von anderen Userinnen und Usern würde bestimmte Meinungen teilen. Bei den US-amerikanischen Wahlen wurden sie vielfach eingesetzt, im deutschsprachigen Raum herrscht (noch?) Zurückhaltung.

Ethische und rechtliche Fragen

Was die beiden Beispiele gemein haben, ist, erstens, dass ihre Entwicklung nicht aufzuhalten ist, dass aber zweitens eine Vielzahl daraus resultierender rechtlicher wie ethischer Fragestellungen noch offen ist. Recht und Ethik, so scheint es, laufen der Entwicklung hinterher und scheinen ihr mitunter nicht mehr nachzukommen.

Wer entscheidet, wie ein Auto in heiklen Situationen entscheiden soll – etwa wenn ein Unfall unvermeidbar ist und Menschenleben auf dem Spiel stehen? Dann müssen Maschinen über Leben und Tod entscheiden und brauchen einen Algorithmus, der vorgibt, ob zum Beispiel ältere oder jüngere Menschen das Los treffen soll. Man kann freilich auch fragen, ob selbstfahrende Autos überhaupt solche Entscheidungen treffen dürfen sollen. Sollen wir das ernsthaft wollen?

Wer ist verantwortlich, wenn mich ein selbstfahrendes Auto in den Abgrund stößt oder gar überfährt? Wer kann rechtlich belangt werden? Der Fahrzeughalter, die Verkäuferin, der Produzent oder die Entwicklerin der Technik? Sie alle haben ihren Beitrag geleistet, damit das Auto auf die Straße kommt. Aber sind sie deshalb auch für den Unfall zur Verantwortung zu ziehen?

foto: reuters/kim kyung-hoon
Wer ist verantwortlich, wenn ein Unfall mit einem selbstfahrenden Auto passiert?

Wen sollen wir belangen, wenn sich herausstellt, dass wir in sozialen Medien von Fake-Userinnen und -Usern betrogen, belogen wurden? Von solchen, die gar keine Menschen sind und programmiert wurden, um uns zu beeinflussen? Und sollen wir überhaupt wollen, dass sie die sozialen Netzwerke durchfluten dürfen? Und falls nicht – was ist dann zu tun? Wie können wir sicherstellen, dass alle, die in den Netzwerken aktiv sind, erstens Kenntnis von der Existenz von Social Bots erhalten, zweitens in der Lage sind, solche zu erkennen, und drittens auch Wege finden, sich gegen ihren Einsatz zu wehren, wenn sie das wollen?

Böse Technik?

Selbstorganisierende Systeme wie selbstfahrende Autos oder Social Bots sind keine neutralen Werkzeuge, wie Technikerinnen und Techniker häufig argumentieren – Motto: Es komme immer nur darauf an, zu welchem Zweck sie eingesetzt werden, man könne auch mit dem Küchenmesser Brot schneiden oder morden. Das stimmt wohl, ist aber nicht hinreichend. Wer Technologien entwickelt, die nicht nur zum Wohle, sondern eben auch zum Schaden der Menschheit gereichen können, ist mindestens verpflichtet, über die negativen Potenziale nachzudenken und auf sie aufmerksam zu machen – und trägt in diesem Sinne selbstverständlich eine ethische (Mit-)Verantwortung. Zugleich ist bei all den technischen Innovationen evident, dass niemand allein zur Verantwortung zu ziehen sein wird – Social Bots können in den sozialen Systemen nur agieren, wenn das von den Systembetreibern toleriert wird, wenn also Facebook und Co nicht dagegen einschreiten und Schranken setzen. Die Neigung, solche Schranken zu setzen, würde vermutlich steigen, wenn Massen von Userinnen und Usern das verlangen und zugleich weitere Schritte androhen würden. Also trifft die Verantwortung auch uns selbst.

Ethik der Technik

Darüber nachzudenken, was Technik mit uns und wir mit ihr anrichten können, erscheint in Zeiten, in denen Technik zunehmend selbstorganisiert agiert, immer wichtiger zu werden. Es ist allerdings nicht davon auszugehen, dass Ethik auch selbstorganisiert einsetzt. Wir müssen schon selbst dafür sorgen, dass wir kritisch darüber reflektieren, Vorteile zu erkennen und Nachteile abzuschätzen lernen, darüber öffentlich zu diskutieren beginnen und auf die Übernahme von Verantwortung durch alle Beteiligten drängen.

Die Ethik der Technik infrage zu stellen ist sohin zugleich eine wichtige Technik der Ethik. (Larissa Krainer, 14.1.2019)

foto: privat

Larissa Krainer lehrt und forscht an der Alpen-Adria-Universität Klagenfurt und ist Sprecherin des Interdisciplinary Media Ethics Center.

Share if you care.