Hacker steuern smarte Lautsprecher mit unhörbaren Signalen

    10. Mai 2018, 16:33
    181 Postings

    Für das menschliche Ohr nicht wahrnehmbare Signale können als Sprachkommandos erkannt werden

    Alexa, Google Home und der Homepod sind allgegenwärtig: In den nächsten drei Jahren sollen erstmals mehr als die Hälfte der US-Haushalte einen smarten Lautsprecher besitzen. Es soll dann auch mehr Smartphones und andere Geräte mit digitalen Assistenten wie Alexa, Siri oder dem Google Assistant als Menschen geben. Doch schon jetzt sorgen die Lautsprecher für Sicherheitsbedenken. Viele Nutzer haben Angst, von den Geräten belauscht und ausspioniert zu werden. Die tatsächliche Gefahr könnte jedoch woanders liegen, wie nun Forscher aus den USA und China demonstriert haben.

    Heimliche Befehle

    Sie waren in der Lage, heimlich Befehle an smarte Lautsprecher zu übermitteln. Die Signale waren teils in Musik oder Hörbüchern versteckt und nicht vom menschlichen Ohr wahrzunehmen. "Indem sie kleine Änderungen an Audiofiles vornahmen, konnten die Forscher den Klang für Spracherkennungsdienste manipulieren und mit etwas ersetzen, das ganz anders von ihnen wahrgenommen wurde", beschreibt die "New York Times".

    Wohnungstüren öffnen

    Durch die Vernetzung derartiger Geräte mit dem Smart Home könnten eine Reihe von gefährlichen Hackerangriffen durchgeführt werden: So könnte beispielsweise die Wohnungstür entsperrt oder die Heizung aufgedreht werden, ohne dass der Nutzer das mitbekommt. Amazon und Google betonten die ständige Erweiterung von Sicherheitsvorkehrungen, die derartige Vorfälle verhindern sollen. Apple wies darauf hin, dass kritische Befehle nur mit entsperrten iPhones oder iPads durchgeführt werden können.

    Werbeclips

    Bereits in der Vergangenheit haben sich Fernsehproduzenten und Werber mit smarten Lautsprechern gespielt. Burger King aktivierte in einer Werbung etwa den Google Assistant, der Clip musste rasch aus dem Programm gestrichen werden. Die Fernsehserie "South Park" verführte smarte Lautsprecher dazu, obszöne Inhalte wiederzugeben.

    Cocaine Noodles

    Nicholas Carlini, der an der University of California in Berkeley forscht, hält es nur für eine Frage der Zeit, bis Hacker derartige Methoden anwenden. Er hat einen der ersten wissenschaftlichen Artikel zu derartigen Attacken verfasst, den er mit der Phrase "Cocaine Noodles" titelte – sie wird oftmals als "Ok, Google" missverstanden. "Wir wollen zeigen, dass solche Attacken möglich sind – und hoffen, dass andere Menschen das dann reparieren", so Carlini. (fsc, 10.5.2018)

    Link

    NYT

    • Alexa und Co können durch für Menschen unhörbare Signale gesteuert werden.
      foto: reuters/nouvelage

      Alexa und Co können durch für Menschen unhörbare Signale gesteuert werden.

    Share if you care.