La semplicità di interazione offerta dagli assistenti vocali che ne costituisce il principale valore aggiunto potrebbe rappresentare al tempo stesso la loro maggiore vulnerabilità: un team di ricercatori della University of California Berkeley ha dimostrato come mediante la semplice manomissione di un file audio sia possibile impartire comandi a Siri, Alexa e Assistente Google senza che gli utenti se ne accorgano, eseguendo in linea teorica azioni dannose.
È il frutto di uno studio avviato nel 2016 e che oggi arriva a concretizzarsi con la pubblicazione di un documento. Inizialmente era stato possibile nascondere alcuni comandi in un file audio contenente rumore bianco, ma ora lo stesso può essere effettuato partendo da un qualsiasi brano musicale o da un discorso registrato. Ad esempio, i responsabili dello studio sono riusciti a inserire “Ok Google, browse to evil.com” nella frase “Without the data set, the article is useless” che potrebbe appartenere a un qualsiasi podcast. Lo stesso vale per una clip di soli quattro secondi estratta dal Requiem di Verdi.
Ricercatori della Princeton University e della Zhejiang University cinese hanno dimostrato come possa avvenire anche mediante l’impiego di ultrasuoni del tutto inudibile per l’orecchio umano, ma perfettamente interpretabili dagli smartphone o dagli smart speaker come HomePod, quelli della linea Echo oppure Home.
Al momento non sembrano essere stati registrati casi di utilizzo malevolo della tecnica, ma le cose potrebbero presto cambiare. Un malintenzionato potrebbe sfruttarla ad esempio per prendere possesso dei dispositivi altrui e inviare messaggi, accedere a uno specifico indirizzo, effettuare acquisti online, inviare denaro o addirittura interferire con il funzionamento degli apparecchi presenti nelle smart home. Insomma, si è innanzi a un problema che Apple, Amazon e Google devono prendere in considerazione il prima possibile, facendo fronte con tempestività a un potenziale enorme rischio per la sicurezza degli utenti.