Possono controllare Siri, Alexa, Google now tramite comandi ad ultrasuoni inudibili.
Secondo alcuni ricercatori dell’Università Zhejiang in Cina , gli assistenti vocali, tra cui il SIRI della Apple e l’ Alexa di Amazon, possono essere controllati dagli hacker tramite comandi vocali impercettibili.
Questo è possibile utilizzando una tecnica che traduce i comandi vocali in frequenze ad ultrasuoni troppo elevate per poter essere percepite da orecchi umani.
La tecnica, denominata ‘DolphinAttack’, potrebbe essere utilizzata per scaricare un virus, inviare falsi messaggi e aggiungere falsi eventi a un calendario.
Potrebbe anche consentire agli hacker l’accesso a video o telefonate in uscita, permettendogli di spiare le loro vittime.
Lo studio ha rilevato che le applicazioni di assistenti vocali di quasi tutte le attuali piattaforme, rischiano di essere controllate.
Mentre questi comandi non possono essere uditi dagli essere umani, i comandi audio a bassa frequenza possono essere intercettati, recuperati e poi interpretati dai sistemi di riconoscimento vocale.
Gli assistenti vocali sempre attivi, come Alexa, sono estremamente vulnerabili agli attacchi informatici.
In totale, il nuovo studio identifica sedici dispositivi e sette sistemi sensibili al ‘DolphinAttack’.
I ricercatori hanno testato i modelli Apple dall’ iPhone 4 al 7 Plus, l’ Apple Watch, l’iPad Mini 4, l’ Apple MacBook, l’LG Nexus 5X, l’Asus Nexus 7, il Samsung Galaxy S6, il Huawei Honor 7, il Lenovo ThinkPad T440p, l’ Amazon Echo e l’ Audi Q3 .