Un minibus a guida autonoma ha un incidente negli USA. L'errore è umano, ma un testimone obietta: il computer poteva evitarlo
ERRORE UMANO È la tempesta perfetta: un minibus a guida autonoma appena entrato in servizio ha un incidente proprio mentre trasporta un gruppo di giornalisti. È successo la settimana scorsa a Las Vegas, a uno shuttle robot Navya Arma a poche ore dalla sua messa in funzione. L'incidente, va detto, è stato causato dal conducente di un camion che ha fatto retromarcia senza guardare, colpendo il minibus che in quel momento era fermo. Un errore umano, quindi. Ma lo U.S. National Transportation Safety Board (NTSB, equivalente del nostro Ministero dei Trasporti) vuole vederci chiaro e ha disposto ugualmente un'indagine.
SI POTEVA EVITARE L'urto è stato minimo, ha riportato il giornalista Jeff Zurschmeide di Digital Trends, e il sistema a guida autonoma ha correttamente individuato l'ostacolo, arrestando per tempo il bus. Peccato che, sottolinea Zurschmeide: “Avessimo circa 6 metri di strada libera dietro di noi: la maggior parte dei guidatori umani avrebbero innestato la retromarcia e sfruttato parte di quello spazio per allontanarsi dal camion. O quantomeno avrebbero suonato il clacson e reso la nostra presenza più difficile da ignorare”.
CONVIVENZA DIFFICILE Alla guida autonoma, insomma, manca ancora la capacità di gestire l'imprevisto e ciò fa riflettere sui rischi di un'eventuale condivisione delle strade tra auto robot e guidatori in carne e ossa, che gli imprevisti li producono in continuazione. In particolare riguardo a motociclisti, ciclisti e pedoni, per cui la guida autonoma non sarà mai un'opzione (anche se tra le moto qualcosa si sta muovendo, come sembra suggerire il concept Yamaha Motoroid). Basterà una programmazione più attenta o servirà l'Intelligenza Artificiale per risolvere il problema?