HOME

Sprachlautsprecher: Gruseliger Hack: Forscher flüstern Alexa und Siri unhörbare Befehle ein - mit einem Laser

Alexa, Siri und Co. einen Befehl zuzurufen, ist für viele Menschen Alltag. Nun gelang es Hackern, den Assistenten über eine Distanz von mehr als 100 Metern Befehle zu geben, ohne dass die Besitzer etwas davon mitbekommen.

Amazon Echo Alexa Google Home Spionage

Den Sprachbefehl für Laser können Menschen nicht hören

Picture Alliance

Es ist eine gruselige Vorstellung: Ein Sprachlautsprecher wie ein Amazon Echo oder ein Smartphone liegen unscheinbar in der Wohnung herum. Plötzlich reagiert der Assistent auf einen unhörbaren Befehl - und macht etwa das Garagentor auf. Oder bestellt etwas bei einem bestimmten Amazon-Händler. Forschern der Universität von Michigan ist nun genau das gelungen, mit Hilfe eines Lasers.

Mehrere Videos zeigen die Experimente. Ein Gerät mit Sprachassistent wird dort mit einem niedrigfrequenten Lichtstrahl beschossen, über den unhörbare Befehle übertragen werden. Plötzlich reagiert dann der Sprachassistent des jeweiligen Herstellers und setzt den Befehl um. Die Masche funktionierte bei sämtlichen Sprachlautsprechern von Amazon Echo bis Google Home. Auch die wenigen geprüften Smartphones und Tablets ließen sich so austricksen, darunter auch recht aktuelle Geräte wie das iPhone XR oder das Samsung Galaxy S9.

Forscher verstehen den Hack selbst nicht vollständig

Dass die Befehle per Laser funktionieren, liegt an der Mikrofontechnik, auf die nahezu alle Geräte mit kleinem Gehäuse setzen. Mikroelektromechanische Systeme, kurz MEMS genannt, erlauben eine kompakte Bauweise bei hoher Audioqualität. Der nun entdeckte Nachteil: Sie reagieren nicht nur auf Audio-Reize, sondern auch auf Licht. "Wir verstehen noch nicht ganz die Phsyik dahinter", erklärte einer der Forscher gegenüber "Ars Technica". ihre Vermutung: Das Licht verursacht auf der Membran eine Bewegung, die dann als Audiosignal erkannt wird.

Der Hack funktioniert auch über größere Distanzen: Bis zu 110 Meter wiesen die Forscher einen Effekt nach, die Distanz dürfte sich noch erhöhen lassen, so ihre Vermutung. In einigen Experimenten zeigen sie, wie sich die Entdeckung missbrauchen lässt. Sie öffnen etwa aus einem anderen Gebäude heraus durch Glasscheiben hindurch die mit dem Sprachassistenten Verknüpfte Garagentür. Auch bestimmte Autos ließen sich so öffnen. Als weitere Missbrauchsmöglichkeit nennen sie Online-Einkäufe sowie das Öffnen von Haustüren.

Gegenmaßnahmen möglich

Die Hersteller der Geräte sind alarmiert. Man hätte sich mit den Forscher in Kontakt gesetzt und würde nun ihre Erkenntnisse bewerten, erklärten etwa Amazon und Google gegenüber "Ars Technica". Ansätze, den Fehler zu beheben, haben die Forscher bereits mitgeliefert. Da der Laser direkt auf das Mikro zielen muss, könnte man etwa ein Audiosignal von mehreren Mikrofonen verlangen, bevor ein Befehl umgesetzt wird. In einer normalen Nutzung wäre das praktisch immer der Fall, die Funktion ließe sich vermutlich auch per Software-Update nachreichen. Auch die automatische Stimmerkennung des Nutzers ist eine zusätzliche Hürde. Sie wird etwa bei iPhones und Android-Smartphones bei der Einrichtung des Assistenten automatisch eingeschaltet.

Die Gefahr, dass Hacker die Tricks in freier Wildbahn nutzen, schätzen die Forscher indes gering ein. Man benötigt einen entsprechenden Laser, der zudem eine ungebrochene Sichtlinie zum anzugreifenden Gerät halten kann. Dabei muss er exakt das Mikrofon ansteuern können, was aus vielen Winkeln schlecht möglich ist. Trotz der stillen Befehle ist es zudem recht schwierig unentdeckt zu bleiben. Nutzt man kein Infrarot, ist der Laserpunkt auf dem Gerät zu sehen, die meisten Sprachassistenten antworten zudem gut hörbar. Anders als der Befehl erfolgt die Ausführung also nicht still und leise.

Quellen: Blogpost der Forscher, Ars Technica