Unklare Quellen und Gefahr für den Datenschutz: IT-Forscher analysierten Alexa-Funktionen und finden dabei jede Menge Probleme. 

Alexa
Chris J Mitchell / Shutterstock.com

Alexa-Nutzer können sich an immer mehr Funktionen der Sprachassistentin, sogenannter Skills, erfreuen. Diese stammen teils von Amazon, aber auch von externen Entwicklern. In einigen Alexa-Funktionen können auch Gefahren lauern, wie ein deutsch-US-amerikanisches Forscherteam jetzt herausfand. Bei der smarten Assistentin gibt es einige Sicherheitslücken für Kriminelle, wie der Informationsdienst Wissenschaft berichtet. 

Gefahr durch im Nachhinein geänderte Alexa-Skills

Das Team aus Forschern der Ruhr-Universität Bochum (RUB) und der North Carolina State University hat dafür insgesamt 90.194 Skills unter die Lupe genommen und dabei mehrere Probleme aufgedeckt, etwa die nachträgliche Änderung von Skills – wenn diese bereits durch Amazon zertifiziert wurden. „Angreifer*innen könnten ihren Sprachbefehl nach einiger Zeit so umprogrammieren, dass sie beispielsweise nach den Kreditkartendaten der User fragen“, erklärt Christopher Lentzsch vom Lehrstuhl für Informations- und Technikmanagement der RUB. 

Skill Squatting – So kapern Anbieter Marken-Skills bei Amazons Alexa

Weiteres Problem: Fremdanbieter könnten potenzielle gefährliche Skills unter bekannten Markennamen anbieten, ohne dass der Nutzer das bemerke. „So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Doch das ist nicht immer der Fall“, warnt Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB. „In einem Versuch haben wir selbst Skills im Namen eines großen Unternehmens veröffentlichen können. Hier können durchaus wertvolle Informationen von Nutzer*innen abgegriffen werden.“ Zwar prüfe und zertifiziere Amazon alle eingereichten Skills, oft falle das sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen, aber nicht auf. Die Forscher warnen davor, dass es so künftig möglicherweise zu einer Art Phishing auch über Sprachassistenten kommen könne.

Zusätzliche Probleme bestehen unter anderem bei den Quellen, die Alexa nutzt: Oft sei nämlich den Nutzern gar nicht klar, auf welche Funktion Alexa dabei zugreift. So könne Alexa bei einem angeforderten Kompliment etwa auf 31 verschiedene mögliche Anbieter zurückgreifen! Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden. Welche Problem bei einer fehlerhaften Quellennutzung durch Amazons Assistentin auftreten können, zeigte sich u. a. bei einem Fall, in dem Alexa quasi eine Nutzerin zum Selbstmord aufforderte. 

Risiken gebe es auch durch erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills: Nur ein Viertel der Funktionen habe überhaupt eine Privacy Policy. Erschwert werden die genannten Probleme für den Nutzer auch durch eine Änderung: Die Alexa-Skills werden seit 2017 automatisch aktiviert, davor musste der Nutzer jeweils einzeln zustimmen, heißt es.

So können Alexa-Nutzer sich schützen

Alexa-Nutzer sollten immer aufmerksam bleiben, rät Martin Degeling. „Sensible Daten sollte man nie über die Spracheingabe an Skills weitergeben. Wenn eine Skill z.B. die Adresse nutzen möchte, muss es dazu eine Berechtigung abfragen, die man in der App bestätigen muss. Eine Skill, die z.B. stattdessen einfach sagt ’Bitte geben Sie uns ihre Adresse’ (und so auch die Überprüfung von Amazon umgeht), ist wenig vertrauenswürdig.“

Nutzer sollten auch die automatisch aktivierten Skills in der Liste der Alexa-App immer wieder kontrollieren und bei viel genutzten Skills oder solchen, die Zugriff auf andere Funktionen haben (z.B. Smart Home Skills) sicher gehen, dass man diese über die Herstellerseiten findet und installiert. „Während unserer Studie haben wir keine Skills entdeckt, die absichtlich böswillig sind (wie etwa beim Phishing), aber – und das kennen sicher alle Alexa-Skill-Nutzer:innen – es gibt viele von minderer Qualität, auf die man sich nicht einfach so verlassen sollte“, fasst der Forscher zusammen.

Es ist auch nicht das erste Mal, dass IT-Experten umfangreiche Probleme beim Umgang mit den Alexa-Funktionen aufdecken: Bereits im vergangenen Jahr fanden Forscher – inzwischen behobene – Sicherheitsmängel oder schleusten selbst kritische Skills in Amazons System ein. 

/
Geschrieben von Markus Gärtner