Bild nicht mehr verfügbar.

Zuviel Verlass auf die Technik kann zu einem Nachteil werden.

Die künstliche Intelligenz ist mitten unter uns angekommen. Heutzutage können Computer scharfsinnige Unterscheidungen treffen. Sie sind in der Lage, ihre Umwelt zu erfassen, verästelte Probleme zu entwirren, subtile Urteile zu fällen und aus der Erfahrung zu lernen. Sie denken zwar nicht so, wie wir denken, und sie sind an sich immer noch so stumpfsinnig wie Zahnstocher. Aber sie können viele unserer am höchsten geschätzten intellektuellen Gaben kopieren. Geblendet von unseren brillanten neuen Maschinen konnten wir es gar nicht abwarten, ihnen alle möglichen anspruchsvollen Aufgaben zu übertragen, die wir früher selbst erledigt haben.

Unsere wachsende Abhängigkeit von der Computerautomatisierung könnte uns jedoch einen hohen Preis abverlangen. Beunruhigende Hinweise lassen darauf schließen, dass unsere eigene Intelligenz verkümmert, während wir uns mehr und mehr auf die künstliche Variante verlassen. Statt uns höheren geistigen Weihen zuzuführen, scheint smarte Software uns nach unten zu nivellieren.

Erst die Arbeiter, dann die Experten

Bisher ist dieser Prozess langsam verlaufen. Die erste Automatisierungswelle war nach dem Zweiten Weltkrieg über die amerikanische Industrie hinweg gerollt. Damals hatten die Hersteller damit begonnen, elektronisch gesteuerte Ausrüstung in ihren Werkshallen zu installieren. Mit Hilfe der neuen Maschinen arbeiteten die Fabriken effizienter, und die Unternehmen erzielten größere Gewinne. Gleichzeitig wurden die Maschinen als Befreier gefeiert. Indem sie Fabrikarbeiter von Routineaufgaben entbänden, würden sie weit mehr bewirken, als nur die Produktivität anzuschieben, gab man sich überzeugt. Sie würden die Arbeiter auf eine höhere Stufe emporheben, ihnen erbaulichere Aufgaben und wertvollere Fähigkeiten verleihen. Die neue Technologie würde das Edle im Menschen hervorbringen.

Doch dann machte sich in den 1950er Jahren ein Professor der Harvard Business School namens James Bright zu einem Feldversuch auf. Er untersuchte vor Ort, wie sich die Automatisierung in einer ganzen Reihe von Industriezweigen - von der Schwerindustrie über das Raffinieren von Öl bis hin zum Brotbacken - tatsächlich auswirkte. Die Bedingungen in den Fabriken, so fand er schnell heraus, waren alles andere als erhebend. In den meisten Fällen sorgten die neuen Maschinen dafür, dass sich die Arbeiter mit eintönigeren, weniger anspruchsvollen Aufgaben zufrieden geben mussten. Ein Fräsautomat zum Beispiel verwandelte einen Metallarbeiter nicht etwa in einen kreativeren Kunsthandwerker. Er wurde vielmehr auf das Drücken von Knöpfen reduziert.

"Entfähigung"

Professor Bright kam zu dem Schluss, dass der alles überlagernde Effekt der Automatisierung darin bestand, die Arbeiter, wie Arbeitsmarktökonomen dies gern ausdrücken, zu "entfähigen" anstatt sie zu Höherem zu qualifizieren. "Die Lektion sollte sich immer klarer herauskristallisieren", schrieb er im Jahr 1966. "Hochkomplexe Ausrüstung" bedürfe keines "fähigen Bedienungspersonals. Die ‘Befähigung’ kann in die Maschine mit eingebaut werden."

Diese Lektion lernen wir heute noch einmal neu, in viel größerem Maßstab. Da Software mittlerweile dazu in der Lage ist, Analysen vorzunehmen und Entscheidungen zu treffen, hat die Automatisierung den Sprung aus den Fabrikhallen vollzogen und ist in die Bürowelt vorgedrungen. Computer übernehmen die Arten von Wissensarbeit, die lange als Domäne hoch gebildeter, gut geschulter Fachkräfte galten: Piloten greifen auf Computer zurück, um Flugzeuge zu fliegen. Ärzte konsultieren sie, um Krankheiten zu diagnostizieren. Architekten setzen sie ein, um Gebäude zu entwerfen. Der neuen Automatisierungswelle kann sich kaum noch jemand entziehen.

Nicht alle Arbeiten, die begabte Menschen erledigen, werden von Computern gekapert. Aber Computer verändern die Art und Weise, wie diese Arbeit verrichtet wird. Und die Hinweise verdichten sich, dass derselbe Entfähigungseffekt, der im vergangenen Jahrhundert die Begabungen von Fabrikarbeitern beschnitten hat, jetzt beeinträchtigend auf Kompetenzen von Experten übergreift, und zwar selbst dann, wenn diese höchst spezialisiert sind. Gestern waren die dran, die Maschinen bedienen. Heute sind Computernutzer an der Reihe.

Den Piloten fehlt die Praxis am Steuerknüppel

Man muss nur himmelwärts schauen. Seit ihrer Erfindung vor einem Jahrhundert haben Autopiloten dazu beigetragen, den Flugverkehr sicherer und effizienter zu machen. Dieser beglückende Trend setzte sich fort, als in den 1970er Jahren Maschinen mit elektronischer Flugsteuerung eingeführt wurden. Inzwischen allerdings befürchten Luftfahrtexperten, dass wir zu weit gegangen sind. Wir haben so viele Cockpit-Aufgaben vom Menschen auf die Computer verlagert, dass die Piloten dabei sind, ihre Bestform einzubüßen, und auch schon erste Anzeichen des Phänomens an den Tag legen, das der britische Luftfahrtforscher Matthew Ebbatson "Fähigkeitenschwund" nennt.

Im Jahr 2007 arbeitete Ebbatson an seiner Doktorarbeit an der Ingenieurshochschule der Cranfield University und nahm dazu ein Experiment mit einer Gruppe Flugzeugpiloten vor, die bei unterschiedlichen Fluglinien angestellt waren. Er ließ sie ein schwieriges Manöver in einem Flugsimulator vollführen: Sie sollten eine Boeing -Maschine mit einem angeschlagenen Triebwerk in widrigem Wetter zur Landung vorbereiten. Dabei legte Ebbatson ein feines Maß an ihre Fähigkeiten und bewertete etwa die Präzision, mit der sie die Geschwindigkeit des Flugzeugs in der Luft aufrecht hielten.

Wichtige Praxis

Als er die Simulatorauswertung mit den tatsächlichen Flugdaten der Flugzeugführer verglich, stieß er auf eine enge Verbindung zwischen der Geschicklichkeit eines Piloten an den Kontrollhebeln und der Menge an Zeit, die er vor kurzem damit zugebracht hatte, Maschinen manuell zu steuern. "Flugfähigkeiten verschlechtern sich recht schnell in Richtung der Randbereiche einer ‘tolerablen’ Leistung, wenn sie nicht relativ häufig praktiziert werden", schloss Ebbatson. Doch heutzutage übernehmen Computer die meisten Flugmanöver zwischen Abheben und Landung. "Häufige Praxis" ist also genau das, was den Piloten eben nicht mehr zu Teil wird.

Und selbst eine geringfügige Verschlechterung der Fähigkeit, einen Flieger manuell zu lenken, kann schon das Risiko einer Tragödie heraufbeschwören. Es ist wahrscheinlich, dass ein aus der Übung gekommener Pilot in einer Notlage schneller einen Fehler begeht. Pilotenfehler im Zusammenhang mit der Automatisierung waren bei mehreren Flugkatastrophen der jüngeren Vergangenheit zum Tragen gekommen, etwa bei den Abstürzen des Flugs 3407 von Continental über Buffalo und des Flugs 447 von Air France über dem Atlantik im Jahr 2009 sowie bei der missglückten Landung des Flugs 214 von Asiana in San Francisco im Jahr 2013.

Ende des vergangenen Jahres dokumentierte eine Arbeitsgruppe der US-Bundesluftfahrtbehörde Federal Aviation Administration (FAA) in einem Bericht zur Cockpittechnologie eine zunehmende Verknüpfung zwischen Abstürzen und einem blinden Vertrauen auf die Automatisierung. Piloten hätten sich "daran gewöhnt, zu beobachten, dass Dinge passierten, und dann zu reagieren, statt aktiv das Heft in die Hand zu nehmen", warnte das Gremium. Die FAA drängt bei den Fluggesellschaften nun darauf, Piloten dazu zu veranlassen, mehr Zeit darauf zu verwenden, Flieger per Hand zu steuern.

Während die Software immer besser wird, wird es immer unwahrscheinlicher, dass diejenigen, die sie nutzen, ihr eigenes Know-How auf Vordermann bringen. Daran sind oft Anwendungen schuld, die viele Anleitungen und Tipps bieten. Einfachere, weniger beflissene Programme tragen stärker dazu bei, dass die Anwender selbst nachdenken, handeln und lernen.

Zielloses Herumklicken statt eigene Strategien

Vor zehn Jahren setzten Informationswissenschaftler an der niederländischen Universität von Utrecht einer Gruppe von Probanden komplexe Analyse- und Planungsaufgaben vor. Zu ihrer Lösung konnten sie entweder auf rudimentäre Software zurückgreifen, die keine Hilfestellung bot. Oder sie konnten eine ausgeklügelte Software heranziehen, die jede Menge Unterstützung lieferte. Die Forscher fanden dabei heraus, dass diejenigen mit der einfachen Software bessere Strategien ersannen, weniger Fehler machten und nach und nach eine tiefer greifende Eignung für die Arbeit entwickelten. Diejenigen, die sich auf die fortschrittlichere Software verließen, "klickten oft ziellos herum", wenn sie mit einem kniffligen Sachverhalt konfrontiert waren. Die vermeintlich hilfreiche Software führte genau genommen zum Kurzschluss bei ihren Denk- und Lernprozessen.

Der Philosoph Hubert Dreyfus von der University of California in Berkeley schrieb 2002, dass sich menschliche Expertise durch "Erfahrung in einer Vielzahl von Situationen entwickelt, die alle aus derselben Perspektive wahrgenommen werden, aber unterschiedlicher taktischer Entscheidungen bedürfen". Mit anderen Worten: Unsere Fähigkeiten werden nur durch die Praxis geschärft und wenn wir sie regelmäßig anwenden, um unterschiedliche Spielarten schwieriger Herausforderungen zu meistern.

Das Ziel moderner Software dagegen ist es, unseren Weg durch solche Herausforderungen hindurch zu glätten. Vor allem anstrengende, penible Arbeiten sind es, die die Programmierer mit Vorrang automatisieren wollen. Tendenziell sind nämlich genau dort umgehende Effizienzzugewinne zu heben. Anders gesagt, bestehen fundamentale Spannungen zwischen den Interessen derjenigen, die die Automatisierung vornehmen, und den Interessen derer, die die Arbeit erledigen.

Software-Schablonen führen zu Tunnelblick bei Medizinern

Trotzdem greift die Automatisierung ungebrochen weiter um sich. Mit der Zunahme elektronischer Patientendatensysteme greifen Ärzte immer öfter auf Software-Schablonen zurück, die sie dann durch die Untersuchung der Patienten führen. Die Programme weisen zwar wertvolle Kontrolllisten und Alarmhinweise auf. Aber sie führen auch dazu, dass Medizin formelhafter und immer stärker zur Routine-Angelegenheit wird. Die Distanz zwischen Arzt und Patient wächst.

In einer Studie, die von 2007 bis 2008 im Norden des US-Bundesstaates New York vorgenommen wurde, hatte Timothy Hoff, ein Professor an der State University of New York in Albany, mehr als 75 in der ärztlichen Grundversorgung tätigen Mediziner befragt, die sich computerbasierte Systeme zugelegt hatten. Die Ärzte hatten den Eindruck, dass die Software ihr Verständnis für die Patienten verkümmern ließ und ihre "Fähigkeit, fundierte Entscheidungen zu Diagnose und Behandlung zu treffen", herabsetzte.

Beth Lown, Professorin an der Harvard Medical School, hatte 2012 in einem zusammen mit ihrem Studenten Dayron Rodriquez verfassten Fachartikel eine Warnung formuliert: Wenn Ärzte "bildschirmgesteuert" agierten, und lieber den Stichworten des Computers folgten als "dem Erzählfaden des Patienten", könne ihr Denken beeinträchtigt werden. In den schlimmsten Fällen entgingen ihnen auf diese Weise möglicherweise wichtige Diagnosesignale.

Datenerfassung vs. Nützlichkeit

Und das Risiko besteht nicht nur rein theoretisch. In einem jüngsten Beitrag im Fachblatt "Diagnosis" hatten drei Medizinforscher, darunter auch Hardeep Singh, der Direktor für das Programm für Gesundheitspolitik, Qualität und Informatik am Veterans Administration Medical Center in Houston, die Fehldiagnose von Thomas Eric Duncan unter die Lupe genommen. Duncan war der erste Patient, der in den USA, am Texas Health Presbyterian Hospital Dallas, an Ebola verstarb. Die Forscher sind der Ansicht, dass die digitalen Schablonen, die die Klinikärzte des Krankenhauses anwendeten, um Patienteninformationen aufzuzeichnen, möglicherweise dazu beigetragen haben, eine Art Tunnelblick heraufzubeschwören.

"Diese höchst eingeengten Werkzeuge", so schreiben die Autoren der Abhandlung, "werden für die Datenerfassung optimiert. Dies geht allerdings zu Lasten ihrer Nützlichkeit für eine angemessene Sichtung und Festlegung der medizinischen Vorgehensweise sowie der Diagnose, was dazu führt, dass die Nutzer den Wald vor lauter Bäumen nicht mehr sehen können." Medizinische Software sei "kein Ersatz für eine grundlegende Anamnese, Untersuchungsfähigkeiten und kritisches Denken".

Computer würgen die Kreativität ab

Selbst kreative Berufe leiden zunehmend unter dem Talenteschwund, den die Automatisierung hervorruft. Computergestützte Entwürfe haben zwar Architekten dabei unterstützt, Gebäude mit ungewöhnlichen Formen und Materialien hoch zu ziehen. Aber wenn Computer zu früh in den Gestaltungsprozess mit einbezogen werden, können sie das ästhetische Einfühlungsvermögen und die konzeptionellen Erkenntnisse abwürgen, die sich beim Skizzieren und Modellbauen einstellen.

Mit der Hand zu arbeiten, ist viel besser dazu geeignet, die Originalität eines gestalterisch Tätigen freizusetzen, haben psychologische Studien ergeben. Manuelles Arbeiten erweitert das Arbeitsgedächtnis und stärkt den Tastsinn. Ein Skizzenblock fungiere als "Intelligenzverstärker", sagt Nigel Cross, Design-Professor an der britischen Open University.

Wenn die Software zu stark zum Zug kommt, verkümmern die manuellen Talente. In seinem Buch "Die denkende Hand" argumentiert der finnische Architekt Juhani Pallasmaa, dass überzogenes Vertrauen in die Computer es den Entwurfszeichnern erschwert, die subtilsten, menschlichsten Qualitäten ihrer Gebäude zu erspüren und zu würdigen.

"Die falsche Präzision und scheinbare Endlichkeit des Computerbilds" engten die Perspektive des Gestalters ein, schreibt er. Dann könne es zwar zu technisch verblüffenden, emotional aber sterilen Arbeiten kommen. Der Architekturprofessor Jacob Brillhart, der an der University of Miami lehrt, schrieb in einer Abhandlung aus dem Jahr 2011, moderne Computersysteme könnten durchaus mit unglaublicher Schnelligkeit verschiedene Dimensionen in präzise 3-D-Bilder übersetzen. Aber sie züchteten gleichzeitig "banalere, faule und ereignisarme Entwürfe, denen der Intellekt, die Fantasie und die Emotionen fehlen".

Back to the human

Wir müssen uns nun allerdings nicht kampflos in diese Situation fügen. Die Automatisierung muss nicht notgedrungen die Herausforderung und Spannung aus unserer Arbeit eliminieren und unsere Talente schwächen. Diese Reibungsverluste rühren von einer von Arbeitswissenschaftlern und anderen Gelehrten als "technologiezentrierte Automatisierung" bezeichneten Gestaltungsphilosophie her, die mittlerweile das Denken von Programmierern und Entwicklern beherrscht.

Wenn so gepolte Systemdesigner ein Projekt in Angriff nehmen, gehen sie prioritär von den Fähigkeiten von Computern aus. Im Auge haben sie dabei, so viel Arbeit wie möglich auf die Software zu verlagern. Der Anwender aus Fleisch und Blut muss schlichtweg nehmen, was übrig bleibt. Und das sind in der Regel recht passive Routineaufgaben, wie das Eingeben von Daten, das Ausfüllen von Schablonen und die Überwachung von Bildschirmen.

Diese Philosophie sperrt die Menschen in die Falle. Sie fallen einer Abwärtsspirale zum Opfer, die zum fortwährenden Verlust von Fähigkeiten führt. Indem sie von harter geistiger Arbeit isoliert werden, stumpfen ihre Talente ab. Die Chancen, Fehler zu begehen, steigen. Wenn diese Fehler dann eintreten, reagieren die Systemersteller, indem sie die Verantwortlichkeiten der Menschen weiter einzuschränken versuchen. Und damit geht der Fähigkeitenschwund dann in die nächste Runde.

Weil der vorherrschende Ansatz "die Bedürfnisse der Technologie über die der Menschen stellt", zwinge er die Menschen "in eine Nebenrolle, für die wir überhaupt nicht geeignet sind", schreibt der Gestaltungsexperte und Bewusstseinsforscher Donald Norman von der University of California in San Diego.

Die "am Menschen orientierte Automatisierung"

Aber es gibt eine Alternative. Die "am Menschen orientierte Automatisierung" räumt den Talenten der Akteure Vorrang ein. Systeme werden so angelegt, dass der menschliche Anwender stets in der "Entscheidungsschleife" bleibt, wie Entwickler dies bezeichnen. Das heißt, sie werden fortwährend mit Aktion, Rückmeldung und Situationsbeurteilungen auf Trab gehalten. Die Arbeitenden bleiben so aufmerksam, in ihre Arbeit eingebunden und sie werden in der Praxis mit der Art von Herausforderung konfrontiert, die vorhandene Kompetenzen erweitert.

Innerhalb dieses Modells spielt die Software auch eine tragende Rolle, aber sie hat nur sekundäre Bedeutung. Sie übernimmt die Routinefunktionen, die der menschliche Nutzer bereits gemeistert hat. Sie gibt Warnhinweise von sich, sollten sich unerwartete Situationen einstellen. Sie liefert neue Informationen, die den Horizont des Anwenders erweitern und sie wirkt den subjektiven Einfärbungen entgegen, die das menschliche Denken oft verzerren. Die Technologie wird zum Partner der Fachkraft und nicht zum Ersatz des Experten.

Alternativen

Um der Automatisierung eine menschlichere Ausrichtung zu geben, bedarf es keiner technischen Durchbrüche. Alles was dazu nötig ist, ist eine Justierung der Prioritäten und eine neuerliche Konzentration auf menschliche Stärken und Schwächen.

Fluggesellschaften, zum Beispiel, könnten Cockpit-Computer so programmieren, dass die Kontrolle während des Flugs zwischen dem Computer und dem Piloten hin- und herwechselt. Indem so die Aufmerksamkeit des Fliegenden gewährleistet wird und er zum Handeln gezwungen wird, könnte diese kleine Veränderung sogar dazu beitragen, dass das Fliegen sicherer wird.

Für Bilanzprüfer und Mediziner und andere Berufsgruppen könnte die Software weit weniger aufdringlich und aggressiv gestaltet werden. Dann hätten die Menschen Raum, ihre eigene Urteilskraft anzuwenden, bevor sie dienstbeflissen algorithmisch abgeleiteten Vorschlägen nachkämen.

Was die Computerisierung der Wissensarbeit angehe, schreibt John Lee von der University of Iowa, "hat sich ein weniger stark automatisierter Ansatz, in der die Automatisierung die Rolle des Anwenderkritikers einnimmt, als viel erfolgreicher erwiesen" als die übliche Vorgehensweise, das menschliche Urteil durch maschinelle Berechnungen zu ersetzen. Die besten Systeme zur Entscheidungshilfe versorgten Fachkräfte mit "alternativen Lesarten, Hypothesen oder Wahlmöglichkeiten".

Fortschritt auf humanistischem Pfad

Eine auf den Menschen bezogene Automatisierung steht auch dem Fortschritt nicht im Wege. Vielmehr leitet sie den Fortschritt auf einen humanistischeren Pfad und bildet einen Gegenpol zum allzu weit verbreiteten, menschenfeindlichen Glauben, der Computer in den Himmel hebt und die Menschen mit Verachtung straft.

Eines der faszinierendsten Beispiele für den Ansatz, in dessen Mitte der Mensch steht, ist die adaptive Automatisierung. Auf diesem Gebiet kommen Sensoren und interpretationsfähige Algorithmen auf dem neuesten Stand der Technik zum Einsatz, um den physischen und mentalen Zustand der Nutzer zu überwachen. Diese Information wird dann dazu eingesetzt, um Aufgaben und Verantwortlichkeiten zwischen dem Menschen und dem Rechner aufzuteilen. Wenn das System erkennt, dass ein Anwender mit einem schwierigen Ablauf zu kämpfen hat, überantwortet es dem Computer mehr Aufgaben, um den Nutzer von Ablenkungen zu befreien. Aber wenn das System eine Unterforderung und ein damit einhergehendes Nachlassen des Interesses feststellt, erhöht es die Arbeitsbelastung dieser Person, um ihre Aufmerksamkeit zu erheischen und ihre Fähigkeiten auszubauen.

Ohne Mensch geht es nicht

Unsere Computer versetzen uns in Erstaunen und das ist auch ganz richtig so. Aber wir sollten vor lauter Begeisterung unsere eigenen Talente nicht unterschätzen. Selbst der raffiniertesten Software mangelt es am gesunden Menschenverstand, dem Einfallsreichtum und der Dynamik, mit denen kompetente Fachkräfte ans Werk gehen. Aus Cockpits, Büros oder ärztlichen Behandlungsräumen sind die menschlichen Experten nicht wegzudenken. Ihre Erkenntnisse, ihr Scharfsinn und ihre Intuition, die durch harte Arbeit und eine in der realen Welt auf den Prüfstand gestellte, durch Erfahrung gereifte Urteilskraft fein geschliffen wurden, können von Algorithmen oder Robotern nicht nachgeahmt und kopiert werden.

Wenn wir zulassen, dass unsere eigenen Fähigkeiten schwinden, weil wir uns zu sehr auf die Automatisierung verlassen, werden wir uns selbst in unserer Leistungsfähigkeit schwächen, und unseren Maschinen gegenüber an Belastbarkeit einbüßen und uns ihnen aus eigenem Antrieb unterordnen. Wir werden eine Welt schaffen, die für Roboter geeigneter ist als für uns selbst. (Nicholas Carr, WSJ.de/derStandard.at, 26.11.2014)

Carr ist der Verfasser des Buchs "Surfen im Seichten. Was das Internet mit unserem Hirn anstellt". Sein jüngstes Werk trägt den Titel "The Glass Cage: Automation and Us".