PHNjcmlwdCBhc3luYyBzcmM9Ii8vcGFnZWFkMi5nb29nbGVzeW5kaWNhdGlvbi5jb20vcGFnZWFkL2pzL2Fkc2J5Z29vZ2xlLmpzIj48L3NjcmlwdD4NCjwhLS0gU21hcnRob21lQXNzaXN0ZW50IE5lYmVuIExvZ28gLS0+DQo8aW5zIGNsYXNzPSJhZHNieWdvb2dsZSINCiAgICAgc3R5bGU9ImRpc3BsYXk6YmxvY2siDQogICAgIGRhdGEtYWQtY2xpZW50PSJjYS1wdWItNDE5MTkxODE5OTIxMzgxMCINCiAgICAgZGF0YS1hZC1zbG90PSI1MDMwODkxOTUwIg0KICAgICBkYXRhLWFkLWZvcm1hdD0iYXV0byI+PC9pbnM+DQo8c2NyaXB0Pg0KKGFkc2J5Z29vZ2xlID0gd2luZG93LmFkc2J5Z29vZ2xlIHx8IFtdKS5wdXNoKHt9KTsNCjwvc2NyaXB0Pg==

Zu Besuch: Bereich CYSEC der TU Darmstadt zeigt Attacke gegen Alexa

0

Ende letzter Woche hatte ich die großartige Gelegenheit, mir die Man-in-the-Middle Attacke, die am 27. Juni 2018 in San Francisco auf der Design Automation Conference erstmals vorgestellt wurde, anzuschauen.
 

Darmstädter Sicherheitsforscher kompromittieren Alexa

Unter der Leitung von Prof. Ahmad-Reza Sadeghi, der mit seiner Forschergruppe im Profilbereich CYSEC der TU Darmstadt forscht, wurde eine Attacke entwickelt, die es ermöglicht, Alexa Lügen- oder noch schlimmer, ungewollte Befehle ausführen zu lassen.
 
Vorgeführt wurde mir die Attacke am 19.07.2018 im Labor am System Security Lab in Darmstadt von Herrn Richard Mitev, der den bösartigen Skill mitentwickelt, sowie den Versuchsaufbau erstellt hat. Die ursprüngliche Aufgabenstellung lag darin, herauszufinden, wie und in welchem Maße man Alexa kompromittieren und daraufhin schädlich einsetzen kann.
 
Das Ergebnis ihrer Forschung wurde an einem Türschloss der Firma Nuki demonstriert, das trotz der korrekten Aufforderung an Alexa und einer Bestätigung ihrerseits, nicht mehr zuschloss. Auch die Logdatei wurde dahingehend manipuliert, dass bei ihrer Abfrage keine Zweifel mehr aufkamen. Hat man also nach dem Status der Tür gefragt, bekam man als Antwort zu hören, dass sie verschlossen sei. Hier bekamen wir also zum Einem eine gewollte Falschmeldung und auch das „nicht ausführen“ eines Befehls gezeigt.
Einen ähnlichen Versuch unternahmen die Forscher auch erfolgreich mit Geräten von Homematic IP.
 
Das Prinzip dieser Attacke ist also auf nahezu alle über Alexa gesteuerten IoT Geräte erweiterbar. Es handelt sich aber explizit um eine Attacke gegen das System von Alexa. Die IoT Geräte von Nuki und Homematic IP dienten hier lediglich als Demonstratoren.
 

Was bekam ich zu Gesicht?

Der Echo Dot und ein handelsüblicher Lautsprecher, der auf 40.000 Herz nicht hörbare Befehle ausgibt.

Der Versuchsaufbau am System Security Lab in Darmstadt wirkte zunächst trivial. Er bestand aus einem Echo Dot, einem handelsüblichen Lautsprecher, sowie einem Laptop, an den ein Mikrofon und ein Verstärker angeschlossen war. Nicht sichtbar war der bösartige Skill der nötig ist, um eine Attacke ausführen zu können. Ebenso „unsichtbar“ war die Software zur Manipulation von Sprachbefehlen, die sich auf dem Laptop befand. Außerdem gab es natürlich noch die Tür, an die das smarte Türschloss montiert wurde.
 
Dieser Versuchsaufbau gilt natürlich in erster Linie als Proof of Concept, also um nachzuweisen, ob es theoretisch überhaupt möglich ist, das gesetzte Ziel zu erreichen. Nach eingehenden Gesprächen während meines Besuchs, wurde mir aber recht schnell bewusst, dass es nicht abwegig ist, diesen Versuchsaufbau dahingehend zu optimieren, um damit auch reale Angriffe durchzuführen zu können. Es gibt sicherlich immer noch viele Hürden zu überwinden, aber meine vorherige Meinung, dass ein solcher Angriff absolut unrealistisch ist, hat sich geändert. Vor meinem Besuch hielt ich auch einige Annahmen, von denen ich ausging, dass sie solch einen Angriff unrealistisch in ihrer Umsetzung machten. Mittlerweile denke ich anders darüber. Darauf komme ich aber im übernächsten Abschnitt noch einmal zu sprechen.
 

Wie funktioniert die Attacke?

Der Laptop auf dem Trojaner installiert ist und das angeschlossene  Mikrofon.

Immer wieder hört man davon, dass Alexa auch Befehle über Ultraschall wahrnehmen kann. Ein Teil der Attacke basiert auch auf dieser Erkenntnis.
 
Die Forscher haben dem Puzzle aber noch zwei weitere Teile hinzugefügt, mit denen sie nun die Kontrolle über Alexa erlangen können. Einmal der zuvor schon erwähnten Skill, sie nennen ihn den „Evil Skill“, sowie die Software zur Manipulation der Sprachbefehle, die sich auf dem Laptop befindet. Der bösartige Skill muss natürlich zuvor auf dem anzugreifenden Account aktiviert werden.
 
Stellen wir die Man-in-the-Middle Attacke der Forscher aber nun einmal stichpunktartig dar. Im Original lief alles in englischer Sprache ab, für den Bericht wurden die Befehle aber von mir ins deutsche übersetzt.
 
Ein anzunehmender Einstieg in die Attacke wäre zum Beispiel wie folgt:
Als erstes wird per Ultraschall-Sprachbefehl die Lautstärke des Echo Geräts auf ein Minimum reduziert. So ist die Bestätigung des neu aktivierten Skills kaum wahrnehmbar, was es dann wiederum ermöglicht, den „Evil Skill“ unauffällig zu aktivieren.

 
Die Forscher konnten ihren Evil Skill übrigens ohne Probleme in den Alexa Skill Store hochladen.

  1. Während der Vorführung wurde Alexa der Befehl gegeben, die Tür, die mit dem smarten Türschloss ausgestattet wurde, abzuschließen. Alexa: „Sage Nuki, dass die Haustüre abgeschlossen werden soll“
  2. Durch diese Anfrage wurde Alexa „aufgeweckt“, ebenso wie das Sprachbefehlstool, das sich auf dem Laptop befand. (An dem Laptop ist das Mikrofon aus dem Versuchsaufbau angeschlossen)
  3. Das Tool analysiert nun mittels Spracherkennung (Speech to Text) den Inhalt des Befehls.
  4. Handelt es sich um einen beliebigen Befehl, passiert nichts und Alexa arbeitet ganz normal weiter.
  5. Handelt es sich aber um den Befehl, der das zu kompromittierende Gerät betrifft, beginnt das Tool mit seiner Arbeit! In diesem Fall ist das der oben genannte Befehl.
  6. Direkt nach dem das Wort „Alexa“ gefallen ist, sendet das Tool über den angeschlossenen Verstärker und dessen Lautsprecher, auf einer nicht hörbaren Frequenz von 40 kHz, ein Rauschen (genannt Jamming) aus, was die echte Ansage überlagert und blockiert. Unsere „echte“ Alexa hört den zweiten Teil des Befehls also nicht mehr!
  7. Direkt im Anschluss wird ebenfalls auf der nicht hörbaren Frequenz ein Befehl (starte den Evil Skill) von dem Laptop aus über den Echo Dot an den „Evil Skill“ gesendet. Dieser Vorgang nimmt ein paar Sekunden in Anspruch, fällt aber nicht unbedingt auf, da es immer mal zu Schwankungen in der Reaktionsfähigkeit von Alexa kommt. Ziel des Forschungsteams war es aber die Zeit von 7 Sekunden nicht übersteigen zu lassen.
  8. Der Evil Skill übernimmt nun auf den Servern von Amazon die Arbeit und manipuliert die IoT Geräte, die an den Account geknüpft sind. In diesem Fall war es das Türschloss. Der Fake-Logbuch-Eintrag wird ebenfalls erstellt und der Befehl zum Abschließen der Tür einfach ignoriert.
  9. Zum Schluss sorgt der „Evil Skill“ noch dafür, dass der Nutzer zuhause eine korrekte Bestätigungsantwort erhält: ”Haustüre wurde verschlossen”

Damit ist der Kreislauf der Attacke geschlossen und der Nutzer merkt im Prinzip nichts davon. Lediglich die Verzögerung könnte ein Indiz sein.
 

Das ist doch alles unrealistisch…oder?!?

Nuki einbauen 6Jetzt denken vermutlich viele, wie ich zu Beginn auch, dass das absolut unrealistisch ist.
 
Zum Beispiel dachte ich, dass es unmöglich ist, einen solchen Skill überhaupt in den Skill Store zu bekommen. Weit gefehlt: Der Skill ist online und könnte theoretisch auf jedem Account aktiviert werden. Amazon überprüft die Skills lediglich auf ihre Funktion und durchsucht dabei nicht den Quellcode auf eventuell schädliche Zeilen. Es ist für Drittanbieter also recht einfach, einen solchen Skill im Store zu platzieren.
 
Des weiteren dachte ich auch, dass sie diesen Skill bei mir nie aktiviert bekämen, aber auch hier wieder weit gefehlt. Mittlerweile ist es ja möglich, Skills per Sprache zu aktivieren. Es würde einfach wieder ein Befehl per Ultraschall gesendet, der den Skill aktiviert und man selbst würde es nicht bemerken.
 
Es müsste also „nur“ der Versuchsaufbau in einem kleineren Gerät vereint- und in einer Wohnung platziert werden. Schon könnte man theoretisch die Kontrolle über ein Smarthome erlangen.
 
Letztendlich muss es sich ja auch nicht nur um ein Türschloss handeln, dass nicht abgeschlossen wird. Wie ich eingangs schon erwähnte, wurde der Versuch auch mit Homematic IP durchgeführt. Also könnte man genauso gut eine Alarmanlage außer Kraft setzen.
 
Den Fantasien dürfen dann wohl kaum Grenzen gesetzt sein. Wir befinden uns schließlich noch am Anfang der Sprachassistenten, des Internet of Things, sowie der Verbreitung all der smarten Geräte in unserem Umfeld.
 
An dieser Stelle sei aber nochmal wiederholt, dass der Angriff auf Schwachpunkten im Alexa-System beruht und keineswegs spezifisch eine Schwachstelle des Nuki Türschlosses darstellt. Es diente lediglich als ein erster Demonstrator. Gleiches gilt für das Homematic IP System.
 

Was gibt es noch für Hürden?

Noch gibt es einige Hürden, die man überwinden muss. Der Versuchsaufbau ist noch recht anfällig und nicht mobil. Der Ultraschall konnte am Institut für den Angriff auch „nur“ über eine maximale Distanz von 1,7m geschickt werden. Man muss sich also noch in direkter Umgebung, der anzugreifenden Wohnung bzw. des Echo Geräts, befinden.
 
Bedenken sollte man aber, dass die Forschergruppe diesen Proof of Concept in gerade mal 8 Wochen auf die Beine gestellt hat. Man kann sich schnell ausmalen, was mit mehr Geld und Ressourcen möglich sein könnte.
 
Derzeit befinden sich die Smart-Speaker noch in den Wohnungen. Mit der Zeit erhalten sie aber auch auf Smartphones Einzug, womit es dann denkbar wäre, zumindest den kompromittierten Evil Skill, bereits vorab von außen aktivieren zu können.
 

Wie könnte man solche Attacken abwenden?

Wenn man das alles so liest, stellt man sich sofort die Frage, wie geeignete Maßnahmen aussehen könnten, um sich vor solchen Attacken zu schützen. Zumindest Maßnahmen, die es erschweren würden, sich unbemerkt Zugriff zu verschaffen, wären schon wünschenswert.
 
Ein paar Gedanken, die mir dazu in den Kopf gekommen sind, führe ich mal als Stichpunkte auf:

  • Die Frequenzen aus dem nicht hörbaren Bereich ignorieren.
  • Eine Bestätigungsmail für neu aktivierte Skills versenden.
  • Ein personifiziertes Sprachmodell für jeden Nutzer anlegen.
  • Eine personifizierte Rechte-Vergabe für „spezielle Skills“ und „Activitys“.
  • Eine Playback Funktion von ausgeführten Sprachkommandos für eine evtl. Rückverfolgung.

Ich denke jede einzelne Maßnahme würde schon ein wenig zur Sicherheit beitragen. Der User zuhause kann aber erst einmal nicht viel machen. Ihm bleibt nur übrig, entweder keine sicherheitsrelevanten IoT Geräte zu verwenden oder gänzlich auf Sprachassistenten zu verzichten.

Wir sind also auf Amazon angewiesen, dass solche Schwachstellen schnell geschlossen werden und natürlich auch auf Forscher, wie die aus der Gruppe von Prof. Ahmad-Reza Sadeghi, die immer auf der Suche nach neuen Lücken sind, um neue Schwachstellen aufzudecken.
 

Fazit meines Besuchs im Bereich CYSEC der TU Darmstadt

Ich bin verblüfft und erschrocken zugleich.
Zugegebenermaßen ist der Aufwand für einen echten Einsatz noch sehr hoch. In der Testumgebung funktioniert es zwar schon sehr gut, allerdings gibt es dort aber auch keine weiteren Einflüsse, die den Versuch behindern. Das bedeutet aber keinesfalls, dass wir uns in Sicherheit wiegen sollten.
 
Ich will jetzt nicht behaupten, dass ich vorher naiv war und dachte, dass es unmöglich wäre, angegriffen zu werden. Ich halte es immer noch für sehr unwahrscheinlich und auch sehr aufwändig. Nichts desto trotz, ist es aber „einfacher“, als ich es mir ursprünglich vorgestellt hatte.
 
Wie dem auch sei. Ich bin sehr froh darüber, die Möglichkeit bekommen zu haben, mir die Man-in-the-Middle Attacke von Prof. Ahmad-Reza Sadeghi und seiner Forschungsgruppe im Profilbereich CYSEC der TU Darmstadt anschauen zu dürfen. Wenn man so etwas live miterlebt, bekommt man noch einmal einen ganz anderen Eindruck zu dem Versuch und generell über den Aspekt der Sicherheit. Liest man hingegen „nur“ einen Fachartikel, ist es schwer greifbar und wirkt dadurch unrealistischer.
 
Deshalb möchte ich mich an dieser Stelle auch noch einmal recht herzlich bei den Forschern von CYSEC, und besonders bei Richard Mitev, der mir die Attacke vorgeführt hat, bedanken!
Außerdem vielen Dank an Sebastian Stammler, der den Kontakt zu Prof. Ahmad-Reza Sadeghi und seiner Forschergruppe aufgebaut, sowie bei der technischen Vor- und Nachbereitung dieses Artikels geholfen hat.

 
Solltet ihr noch Fragen haben, stellt Sie doch einfach im Forum und ich versuche sie euch so gut wie möglich zu beantworten. Ansonsten interessiert mich natürlich, wie ihr generell zum Thema Sicherheit im IoT Bereich steht?
 
Keine News mehr verpassen? Dann folgt uns auf Facebook, Twitter, dem RSS Feed oder abonniert uns per Mail!

Zu Besuch: Bereich CYSEC der TU Darmstadt zeigt Attacke gegen Alexa
5 Sterne - 4 Votes
Hat dir der Beitrag gefallen? Teile ihn mit anderen und informiere auch sie!