Im Rahmen unserer Websites setzen wir Cookies ein. Informationen zu den Cookies und wie Ihr der Verwendung von Cookies jederzeit widersprechen bzw. deren Nutzung beenden könnt, findet Ihr in unserer Datenschutzerklärung.

Wie Forscher Smart Speaker ohne Sprache überlistet haben

Wie Forscher Smart Speaker ohne Sprache überlistet haben

Natürlich sind digitale Sprachassistenten unsicher, mögen einige sagen. Dass man jedoch nicht einmal mit ihnen sprechen muss, um sie zu überlisten, ist neu. Ins Fenster solltet Ihr Euren Google Home, Echo oder auch Apple Homepod wohl besser nicht stellen.

Forscher der University of Electro-Communications Tokyo sowie der University of Michigan haben demonstriert, wie man digitalen Assistenten Befehle gibt, ohne mit ihnen zu sprechen. Ausprobiert haben sie dies mit Amazons Alexa, Facebook Portal, den Google-Geräten und auch Siri von Apple. Ihre Waffe: ein Laserpointer.

Möglich wird dies durch die für die Mikrofone verwendete Technik, wie sie schreiben. Das bringt die Mikrofone dazu, nicht nur auf Sprache, sondern auch auf direkt auf sie gerichtetes Licht zu reagieren. Die Forscher haben die Mikrofone dabei so überlistet, dass diese das empfangene Lichtsignal genauso in ein elektrisches Signal umgewandelt haben, als ob sie Sprache empfangen hätten.

Dadurch war es ihnen möglich, Befehle mit einem Laserpointer an Alexa, Google Assistant und die anderen zu schicken. Mit einem vor dem Laserpointer montierten Teleobjektiv sogar auf weite Entfernung. Korrekt zu fokussieren sei gar nicht so einfach gewesen, beschreiben die Forscher auf ihrer Webseite. Doch ein Stativ habe hierbei geholfen.

Das Ganze wirkt schier unglaublich. Neben etwa dem Google Home und dem Echo Dot der dritten Generation war auch ein iPhone XR anfällig. Mit einem Google Pixel 2 funktionierte der Trick ebenfalls.

In ihrem Experiment haben die Forscher gezeigt, dass sich so Garagentore öffnen lassen. Das Signal haben sie dabei durch ein Fenster geschickt. Auch von einem anderen Gebäude aus.

Bisher, merken die Forscher an, gebe es keine Hinweise darauf, dass es bereits Angriffe mit dieser Technik auf digitale Assistenten gegeben habe. Und auch wenn das nötige Setup zu beschaffen ist, ist es wohl eher unwahrscheinlich, dass Banditen damit durch die Gegend ziehen, um Garagentore zu öffnen.

Vielleicht solltet Ihr Euren Smart Speaker aber dennoch lieber in eine dunkel Ecke stellen. Oder am besten ganz ausschalten. Wir erinnern uns, sie hören auch allesamt zu, wenn sie es nicht sollen. Das hören sich dann wiederum Mitarbeiter der jeweiligen Firmen an, auch wenn diese Praxis zumindest in Europa teilweise gestoppt wurde.

Unvermeidlich scheint aber zu sein, dass wir uns mit jeder zusätzlichen Technik, die wir uns ins Haus holen, auch weitere Türen öffnen. In einem gewissen Rahmen mag das hinzunehmen sein. Blöd nur, wenn sich das Smart-Lock, das alles einfacher machen sollte, mit einem Laserpointer öffnen lässt. Ebenso blöd, wenn bestimmte Fahrzeuge so entsperrt werden können. Im Rahmen ihres Versuchs haben die Wissenschaftler sich Tesla und Ford angeschaut.

Hersteller müssen für die Sicherheit im Smart Home sorgen

All das soll Technik gar nicht verdammen. Vielmehr zeigt es, dass die Hersteller Sicherheit ernster nehmen müssen. In der Veröffentlichung heißt es, dass schon eine zusätzliche Softwareschicht diese Angriffe verhindern kann. Zudem könne verhindert werden, dass das Licht auf die Mikrofone trifft - das ließe sich aber unter Umständen wieder mit einem stärkeren Laser umgehen, heißt es. 

Wie beschrieben, es wird kaum jemand schon bald mit einem Laserpointer durch unser Fenster leuchten. Hoffe ich. Angesichts immer neuer solcher Berichte sollten die Anbieter ihre Smart Speaker und Smart-Assistenten aber einfach besser absichern, auch wenn das Gerät dann nicht mehr für 50 Euro verschleudert werden kann. Wenn Sicherheit gewährleistet wird, dann überzeugt man bestimmt auch mehr Nutzer von den vernetzten Geräten. Ich jedenfalls stelle mir auch weiterhin keinen Smart Speaker in meine Wohnung und schaue dafür jetzt noch einmal diese durchaus unterhaltsamen Videos.

Empfohlene Artikel

Top-Kommentare der Community

19 Kommentare

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • Panikmache und Klicks erzeugen, das ist das Einzige, was ich aus diesem Artikel herauslese. Seit wann ist in einem Microphone ein optischer Sensor und eine entsprechende Einheit zu Umsetzen der optischen Signale in elektrische Impulse integriert? Und welche Befehle sollen da übermittelt werden. Den Aussagen fehlt jeder technische Hintergrund.
    Aber das kommt natürlich gut an bei den, sich jeder neuen Technik, Verweigerern.


    • Diese "Technik" ist nicht wirklich neu (in der Theorie dürfte die schon länger existieren). Ist Licht stark genug kann man damit das Mikrofon anregen (bzw. die Membrane darin). Das erfordert aber, dass das Licht so gepulst ist das es die Sprache imitiert. Mit guter und teurer Technik ist das wohl möglich wie man sieht. Mit einer Taschenlampe ist das m.E. nicht möglich, dessen Licht ist m.E. zu schwach um damit eine Mebran des Mikrofons zu bewegen.


    • Was hat das mit Technik verweigern zu tun, wenn man neue Technik kritisch hinterfragt? Das ist doch genau das Problem unserer Zeit, niemand hinterfragt noch irgendwas und damit kann Politik und Industrie tun und lassen, wonach immer ihnen ist.


    • Natürlich funktioniert das, und die Assistenten brauchen gar keine Lichtsensoren dafür. Mit Lichtpinzetten lassen sich mikroskopisch kleine Gegenstände bewegen, sie werden zum Focus hingezogen. Hier vermute ich aber ein anderes Funktionsprinzip. Dort wo der Laser auftrifft erwärmt er das Material und die umgebende Luft. Die will sich ausdehnen und erhöht lokal den Luftdruck. Moduliert man den Laserstrahl im Rhythmus der Sprache, kommt es zu lokalen Schwankungen des Luftdrucks im Rhytmus der Sprache, Schallwellen sind nichts anderes. In den Jahrzehnte alten Lichtmühlen kommt dieses Prinzip ebenfalls zur Geltung.
      Ich denke, ein entsprechender Aufbau lässt sich mit modulierbaren Lasern im zweistelligen Milliwattbereich und geeigneten Mikrofonverstärkern für unter 100 € aufgebauen (Achtung Augenschutz! Bereits Reflektionen solcher Laser können ungeschützte Augen irreparabel schädigen! Unter Umständen können solche Laser geeignetes Material in Brand versetzen.).
      Ein größeres Problem dürfte, wie im Artikel beschrieben, sein, die Mikrofone der Assistenten zu treffen. Hier könnte ein mit dem Laser verbundenes Zielfernrohr an einem Stativ hilfreich sei, was den Preis dann aber über 100 € treibt.
      Am Befehlen lässt sich alles übermitteln, was sich auch per Sprache übermitteln lässt, also bei Verwendung eines smarten Türschlosses auch "öffne die Haustür".


    • Kritik ist immer gut, aber der Artikel gibt unten ganz sauber die Quellen an. Wenn du auf die Quelle "Light Commands" gehst kannst du die Publikation lesen. Ich kann verstehen, dass man hier auf eine detailierte Zusammenfassung der 17 Seiten (im IEEE Style) verzichtet.


  • Im Kern also ein "gewisse Mikrofontypen lassen sich mit entsprechendem Know-How und Aufwand auch durch Licht und nicht nur durch Schall gezielt "bespielen"".

    Natürlich sollte man mit potentiellen Angriffsmöglichkeiten auf neue Technologien nicht sorglos umgehen. Aber letztlich wird es immer auf eine Abwägung Nutzen vs Risiko hinauslaufen (die Angriffsmöglichkeit hier scheint doch recht viel Know-How zu erfordern. Und wie genau sieht der Schaden aus, den ein solcher Angreifer anrichten wollen würde, um sich selbst Vorteile zu verschaffen? Jalousien im Erdgeschoß hochfahren zwecks einfacherern Einbruchs? Ich denke die meisten Einbrecher werden ein Haus auch so knacken können.)

    Allerdings sollte man sich vor Augen halten, dass auch die "bewährten" Anwendungszenarien diverse Anfälligkeiten - möglicherweise sogar größere - haben (gut, bei sprachgesteuerten Assistenten gibt es keinen entsprechenden "Vorgänger", aber man nehme mal Sicherheitsrisiken bei digitalen Bezahlungsmöglichkeiten. Da werden Szenarien von der unbefugten Nutzung beispielsweise von NFC-Zahlmöglichkeiten an die Wand gemalt (die ein entsperrtes Telefon, aktiviertes NFC und kurze Distanz erfordern), dass aber das altgenutzte Bargeld stattdessen schlichtweg gestohlen oder geraubt werden kann, wird dazu nie erwähnt).


    • Für professionelle Autodiebe wäre das schon interessant. Zuerst das Garagentor öffnen lassen und dann den Keyless-Go-Schlüssel abfangen mit dem sich das Auto starten lässt. Damit wäre der Schaden groß.


  • Die Dinger werden mir immer sympatischer, ins Haus kommen sie ganz sicher nicht.


  • Überlisten? Kein Problem. Das geht ganz einfach in dem man das Ding erst gar nicht anschaltet. Stecker raus und gut ist.😅

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!