Sicherheitsforscher steuern Tesla in den Gegenverkehr

    3. April 2019, 10:05
    218 Postings

    Chinesische Forscher zeigen auf, dass es selbst mit gefälschten Straßenmarkierungen möglich ist, Teslas zu manipulieren

    Sicherheitsforscher haben erneut große Sicherheitslücken beim Autopiloten von Tesla entdeckt. So haben die Hacker des Keen Security Lab, einer Abteilung des chinesischen Konzerns Tencent, die Sensorik der Autos ausgetrickst, wie "Heise" berichtet. Dabei wurden Fahrbahnmarkierungen manipuliert, sodass die Teslas die Spur verloren. Zudem wurden gefälschte Markierungen eingesetzt, was dazu führte, dass die Autos sie als Führungslinien erkannten und in die Gegenfahrbahn fuhren.

    Keine echten Markierungen

    Das ist möglich, weil die Sensoren rein die Markierungen erkennen, Navigationsdaten oder andere Methoden werden nicht angewandt. Aus Sicht der Forscher ist das äußerst bedenklich – vor allem, weil es nicht einmal notwendig war, tatsächlich existierende Fahrbahnmarkierungen darzustellen. Stattdessen nutzten sie kleine rote Aufkleber. Somit sei es möglich, die Autos anhand von mutwilligen Manipulationen in potenzielle Gefahrensituationen zu bringen.

    Softwarelücken aufgezeigt

    Es ist nicht das erste Mal, dass das Keen Security Lab Teslas System auf Herz und Niere prüft. Bereits im vergangenen Jahr stellten die Sicherheitsforscher auf der Black Hat, einer Security-Messe in den USA, Lücken vor, die in der Software zu finden waren. Tesla lieferte später Updates aus, um sie zu beseitigen. (red, 3.4.2019)

    Link

    Heise

    • Artikelbild
      foto: apa/afp/mark ralston
    Share if you care.