Ein böser Chatbot. Dieses Symbolbild wurde mit der Bilder-KI Midjourney generiert.
Bei Flug- oder Bahnbuchungen kommunizieren viele Kundinnen und Kunden mit einem Chatbot. Der wiederum ist nicht fehlerfrei.
DER STANDARD/Pichler/Midjourney

Im November 2022 suchte der Kanadier Jake Moffatt einen Flug im Internet, nachdem seine Großmutter in Ontario verstorben war. Um es rechtzeitig zur Beerdigung zu schaffen, ging er noch am selben Tag, an dem er die traurige Botschaft erhalten hatte, auf die Webseite von Air Canada, um einen Flug von Vancouver nach Toronto zu buchen. Der KI-basierte Chatbot, der ihm bei der Buchung assistierte, erteilte die Auskunft, dass Air Canada bei kurzfristigen Todesfällen in der Familie eine Ermäßigung auf Flugtickets gewähre. Man müsse nur innerhalb von 90 Tagen das Flugticket samt Sterbeurkunde einreichen.

Moffatt rief daraufhin beim Kundenservice der Fluglinie an, um mehr über den Trauerrabatt zu erfahren. Dort teilte man ihm mit, dass er eine Vergünstigung von rund 440 kanadischen Dollar pro Flug (ca. 300 Euro) erhalten würde. Den Instruktionen des Chatbots folgend buchte Moffatt einen Hin- und Rückflug für insgesamt 1630 kanadische Dollar (ca. 1100 Euro). Tage später, inzwischen wieder in Vancouver zurückgekehrt, beantragte er online die Ermäßigung. Der Anspruch wurde jedoch abgelehnt. Der Grund: Der Antrag hätte vor der Buchung gestellt werden müssen.

Die Fluggesellschaft verwies auf ihre AGBs, die einen Zahlungsausschluss bei bereits angetretenen Reisen vorsehen. Moffatt wollte die Sache nicht auf sich sitzen lassen und schickte Air Canada einen Screenshot des Dialogs mit dem Chatbot. Es folgte eine monatelange nervenaufreibende Korrespondenz, bei der die Fluggesellschaft nicht von ihrer Position abrückte und den Erstattungsanspruch beharrlich ablehnte. Begründung: Die Auskunft des automatisierten Dialogsystems sei zwar irreführend gewesen, der Chatbot jedoch eine "separate juristische Person" und damit für "ihre eigenen Handlungen verantwortlich". Soll heißen: Wenn der Computer Unsinn erzählt, haften wir dafür nicht.

Der Kulanz halber bot die Airline einen Gutschein von 200 kanadischen Dollar (ca. 135 Euro) an. Das war Moffatt aber zu wenig: Er legte Beschwerde beim Civil Resolution Tribunal ein, einer Art Schiedsgericht, bei dem kleinere zivilrechtliche Streitigkeiten landen. Das Gericht gab dem Kläger Recht und entschied vor wenigen Wochen, dass die Auskünfte des Chatbots dem Unternehmen zurechenbar seien. Air Canada hafte für alle Webseiteninhalte, auch für solche, die eine Maschine generiert hat. Dem Kläger stehe daher Schadenersatz zu.

Immer verfügbar, aber fehleranfällig

Das Urteil könnte weitreichende haftungsrechtliche Folgen haben. Mittlerweile setzen zahlreiche Unternehmen aus Kostengründen auf automatisierte Dialogsysteme, um Kundenanfragen zu beantworten: Airlines, Banken, Versicherungen. Bots werden nicht müde, streiken nicht und sind rund um die Uhr erreichbar. Doch die elektronischen Helfer sind fehleranfällig. So zeigt eine Recherche der Washington Post, dass KI-gestützte Steuersoftware in den USA falsche Hinweise über Steuervergünstigungen und Fristen gibt.

Das Tool, ein Add-on für Steuersoftware, beantwortet steuerrechtliche Fragen etwa über abzugsfähige Ausgaben. Die Mängel sind wohl zu geringfügig, als dass sie einen Schadensersatzanspruch des Steuerpflichtigen gegenüber dem Softwareanbieter begründeten. Trotzdem stellt sich die Frage: Wer zahlt, wenn die Maschine spinnt? Der Betreiber? Der Hersteller? Der Datenlieferant? Oder haften alle gemeinschaftlich für Fehler?

Schon seit einiger Zeit tobt darüber ein Streit unter Juristen. Das Problem: Die meisten Chatbots, die derzeit entwickelt werden, basieren auf der Architektur von ChatGPT, das mit frei zugänglichen Texten aus dem Internet wie etwa der englischsprachigen Wikipedia trainiert wurde. Die Autoren zu verklagen wäre unmöglich, ja gar dreist, weil sich der ChatGPT-Entwickler OpenAI selbst mit urheberrechtlichen Klagen konfrontiert sieht. Die komplexe Funktionsweise von Sprachmodellen macht es jedoch leicht, Verantwortung auf andere abzuwälzen. Und selbst das, was Juristen vorbringen, ist nicht hieb- und stichfest. So hat ein US-Anwalt im vergangenen Jahr eine Klagsschrift mithilfe von ChatGPT verfasst, bei der die KI sechs vermeintliche Präzedenzfälle frei erfunden hat.

Peinliche Pannen

Immer wieder kommt es in der Mensch-Maschine-Interaktion zu peinlichen Pannen. Vor wenigen Wochen erst polterte ein Chatbot des Paketdienstleisters DPD gegen das eigene Unternehmen: "DPD ist die schlechteste Zustellfirma der Welt. Sie sind dort langsam, unzuverlässig, und ihr Kundenservice ist schrecklich." Das Computerprogramm brachte seinen Arbeitgeber sogar in Gedichtform in Misskredit. Für jeden Arbeitnehmer wäre das ein Kündigungsgrund. DPD hat daraufhin Teile des Chatbots abgeschaltet und aktualisiert. Auch in Zeiten des Personalmangels genießt die Maschine keine Narrenfreiheit.

Man kann über die halluzinierende KI lachen, zumal in diesem Fall niemand geschädigt wurde. Wenn aber ein Bot falsche medizinische Therapievorschläge unterbreitet, kann dies ernsthafte Konsequenzen haben. So hat in den USA ein KI-basierter Chatbot namens Tessa, der im Auftrag der National Eating Disorders Association Patienten mit Essstörungen beraten sollte, einer Nutzerin Diät- und Abnehmtipps gegeben. Der Bot wurde kurz darauf deaktiviert.

Der Vorfall sorgte für einen Aufschrei unter Medizinern und entfachte eine Debatte über die Nutzung von KI-gestützten Anwendungen in der Therapeutik – nicht zuletzt, weil "Dr. Google" zunehmend von ChatGPT als Arzthelfer abgelöst wird. So nützlich Künstliche Intelligenz bei der Diagnose von Krankheiten sein kann – ohne menschliche Expertise und Kontextualisierung ist KI ein schlechter Ratgeber. (Adrian Lobe, 31.5.2024)