La società di sicurezza McAfee sta portando avanti progetti per “fregare” i sistemi di guida autonoma. Con risultati sorprendenti
BASTA DELLO SCOTCH Un gruppo di tecnici di McAfee è riuscito a “fregare” il sistema di guida autonoma di diverse Tesla, portando le auto ad aumentare pericolosamente la loro velocità oltre il limite consentito. Come? Usando due pezzi di nastro adesivo.
COME HANNO FATTO Lo stratagemma utilizzato dai tecnici di McAfee è sorprendente nella sua assoluta semplicità: con del nastro adesivo hanno modificato il limite dei cartelli stradali, modificando la prima cifra del segnale delle “35” miglia orarie in modo che il computer lo leggesse come un “85”. Un cambiamento posticcio, non percepito come tale dall’occhio di un essere umano, ma che a quanto pare riesce a ingannare i sofisticati computer che regolano la guida autonoma. Possiamo immaginare che il “trucchetto” funzioni anche su altri modelli, non solo di Tesla.
Come ha funzionato il trucchetto per ingannare le Tesla
FUNZIONA, MA SUI MODELLI VECCHI La piccola modifica al segnale stradale ha portato le Tesla Model S e Model X sottoposte alla insolita prova a visualizzare sullo schermo il valore 85 (miglia orarie), passando quindi dalla velocità massima di 56 km/h a quella, ben più pericolosa, di 136 km/h. Per correttezza di informazione, va detto che le telecamere Mobileye EyeQ3 montate a bordo delle vetture provate durante i test sono state sostituite, nei modelli più recenti, da tecnologie proprietarie sviluppate dalla casa di Palo Alto, e con queste il ''trucchetto'' non funziona.
NON SOLO PER DIVERTIMENTO Al di là di tutto, il punto dello studio non è “trollare” i sistemi a guida autonoma per farsi due risate, o suggerire ai teppisti nuovi modi per passare il tempo. “Stiamo portando avanti questi studi perché ci sono sistemi intelligenti che, a un certo punto, svolgeranno compiti che al momento sono fatti da esseri umani”, ha commentato Steve Povolny, uno degli studiosi del team di McAfee. “Se non cerchiamo di anticipare per tempo quali possono essere gli attacchi e non analizziamo bene come sono progettati questi sistemi, allora finiremo per trovarci con una serie di computer interconnessi tra loro proni ad attacchi ad alto rischio”.
Telecamere controllano la guida autonoma di Tesla
ALTRI RISCHI? Lo studio di apprendimento “ostile”, come viene definito da McAfee, sta andando avanti da oltre un anno e mezzo, e tra i risultati ottenuti dal team di Povolny c’è stato far cambiare corsia a una Tesla appiccicando degli adesivi sulla strada, o forzando l’arresto di una macchina agendo ancora sulla segnaletica stradale. Un portavoce di Mobileye ha commentato dicendo che un segnale stradale ben modificato potrebbe ingannare anche un essere umano (per tacere di chi dovesse sostituirlo del tutto, e lì non c’è software che tenga), e che proprio per questo motivo non viene considerato un attacco in senso stretto.