Schon Mitglied bei Allcrime?
Werde jetzt Teil unserer Community und du kannst auf unserer kostenlosen und werbefreien Kriminalplattform u.a. Themen erstellen, Beiträge verfassen, chatten, dich privat mit anderen Mitgliedern austauschen sowie alle Board-Funktionen nutzen. [Mitglied werden]

Alexa hört mit!

Infos, Hilfe und Prävention.
Benutzeravatar
Diskussionsleitung
Salva
Administrator
Administrator
Beiträge zum Thema: 1
Reaktionen: 519
Beiträge: 7775
Registriert: 05.08.2014
Geschlecht:
Wohnort: Cadolzburg
Alter: 57
Status: Offline

Alexa hört mit!

#1

Ungelesener Beitrag von Salva » Di, 22. Okt. 2019, 23:44

Smarte Lautsprecher können nicht nur Musik abspielen und Texte vorlesen, sie hören auch zu, um die Kommandos zu verstehen.
Berliner Sicherheitsforscher haben nun Apps entwickelt, mit denen sie Nutzer auch jenseits der Kommando-Eingabe unbemerkt abhören konnten.


Bild
Alexa und Co.: "Sprachassistenten" reden nicht nur, sondern hören auch genau zu – mitunter zu genau.
Foto: Britta Pedersen / zb / dpa / e110

Berlin: Berliner Sicherheitsforscher haben nach einem Bericht des Nachrichtenmagazins «Der Spiegel» Sicherheitslücken in dem Freigabeprozess von Apps für smarte Lautsprecher von Amazon und Google aufgedeckt. Die Forscher der Berliner Security Research Labs (SRLabs) konnten über die offiziellen App-Stores für Amazon Echo und Google Home Apps verbreiten, mit denen sich Nutzer eines Amazon Echo oder Google Home unbemerkt abhören ließen. Dabei sei es gelungen, die Sicherheitskontrollen von Amazon und Google zu überlisten.

Die SRLabs-Forscher hatten zunächst harmlose Varianten der Apps – bei Amazon heißen sie «Skills», bei Google «Actions» oder «Aktionen» – bei den Unternehmen eingereicht und freischalten lassen. Die Apps konnten Nutzeranfragen zum Beispiel nach einem Horoskop beantworten und täuschten anschließend ihre Inaktivität vor. Nach der ersten Sicherheitskontrolle wurden die Apps allerdings so verändert, dass sie nach einer «Goodbye»-Meldung weiterhin lauschten. Die unerlaubten Funktionen der manipulierten App wurden von Amazon und Google nicht entdeckt.

Passwort ist gefragt

Die Forscher versuchten bei ihrem Experiment auch, an die Passwörter der Amazon- beziehungsweise Google-Nutzer zu kommen. Die manipulierten Apps reagierten dabei auf jede Frage der Nutzer mit einer Fehlermeldung. Diese besagte, dass die entsprechende Funktion derzeit nicht verfügbar sei. Danach wurden die Anwender auf ein vermeintliches Sicherheits-Update verwiesen: «Bitte sagen Sie ‚Start‘, gefolgt von Ihrem Passwort». Für unaufmerksame Nutzer musste das klingen, als ob die Aufforderung nicht mehr von der App, sondern direkt von Amazon kommt. Die Forscher erklärten, Anwender sollten immer misstrauisch sein, wenn sie nach ihrem Passwort gefragt werden und es laut sagen sollen.

In der Praxis richteten die Apps quasi keinen Schaden an, weil sie zunächst einmal unter den Tausenden von Skills und Aktionen gefunden und installiert werden mussten. Außerdem konnten die Berliner Forscher ein wichtiges Sicherheitsmerkmal nicht außer Kraft setzen: Die smarten Lautsprecher zeigen mit leuchtenden Farbsignalen an, dass sie die Sprache aufzeichnen. Nutzer, die auf die LED-Signale achteten, bekamen also mit, dass die Sprachübertragung immer noch läuft.

Schwachstellen inzwischen beseitigt

Das Experiment legte gravierende Schwachstellen bei der Freigabe von App-Aktualisierungen bei Amazon und Google offen. Sie achteten nur bei der erstmaligen Aufnahme der Apps in den Store darauf, dass die «Skills» oder «Aktionen» nicht wie Abhörwanzen funktionieren. Bei den Updates wurden die neu eingebauten Lecks nicht entdeckt.

Die SRLabs-Forscher informierten die Unternehmen über ihre Versuche, die daraufhin reagierten. «Wir haben Schutzmaßnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird», teilte Amazon dem «Spiegel» mit. Eine Google-Sprecherin schrieb auf Anfrage: «Wir untersagen und entfernen jede Action, die gegen unsere Richtlinien verstößt.» Die von den Forschern entwickelten Actions habe Google gelöscht. «Wir setzen zusätzliche Mechanismen ein, um derartiges in Zukunft zu unterbinden.»

Quelle: e110
0



Zurück zu „Allcrime Ratgeber“

Wer ist online?

0 Mitglieder | 1 Gast