Ovviamente, le auto a guida autonoma non hanno poteri sovrannaturali, ma è sufficiente un piccolo dispositivo da 60 dollari per ingannare i sensori, creando ostacoli che in realtà non esistono. Jonathan Petit, esperto di sicurezza informatica della Security Innovation, illustrerà il risultato della sua ricerca nel corso della conferenza Black Hat Europe di novembre, evidenziando i pericoli per i passeggeri delle cosiddette self-driving car.
Tra i numerosi sensori integrati nelle auto a guida autonoma, il più costoso è sicuramente il LIDAR, acronimo di Laser Imaging Detection and Ranging, che costruisce un’immagine 3D dell’ambiente circostante e permette di rilevare la presenza di pedoni, ciclisti, muri e altre automobili lungo il percorso. Mentre i radar a corto raggio sfruttano frequenze autorizzate, per le quali occorre una licenza, i LIDAR emettono impulsi laser che possono essere facilmente imitati. Il ricercatore ha infatti realizzato una sorta di puntatore laser che inganna il sensore (basta Arduino o un Raspberry Pi).
Petit ha prima registrato gli impulsi non cifrati emessi dal LIDAR Lux di Ibeo e successivamente ha riprodotto il segnale di risposta. L’unica difficoltà è stata la sincronizzazione. Dopo aver trovato il timing corretto, il ricercatore è riuscito a creare veicoli, pedoni e muri “fantasma” fino ad una distanza di 350 metri dal sensore. Un simile scenario può rivelarsi molto pericoloso: un auto a guida autonoma rileva ostacoli che non esistono, rallenta, si ferma o rimane bloccata in mezzo alla strada. È possibile creare migliaia di “phantom car”, provocando un vero e proprio attacco DoS.
Petit suggerisce ai produttori di trovare adeguate soluzioni al problema della sicurezza, prima che le self-driving car arrivino sul mercato.