Un robot che causa danni può essere considerato un “prodotto difettoso”. Oppure no. Ma il nodo centrale rimane quello della responsabilità. E’ in questo complesso ambito che si stanno muovendo i primi passi verso una regolamentazione efficace di robotica e Intelligenza artificiale, in grado di equilibrare le esigenze degli sviluppi tecnologici e il diritto.

La questione è emersa, con inedita chiarezza, il 19 novembre 2019 quando il National Transportation Safety Board (NTSB) degli Stati Uniti, ovvero l’Agenzia incaricata di migliorare la sicurezza del sistema dei trasporti civili degli USA, si è pronunciata sull’incidente Elaine Herzberg del 2018. Ovvero uno dei pochi casi attestati d’incidente mortale che ha visto coinvolta un’automobile a guida autonoma, in questo caso progettata da Uber. La NTSB ha raccomandato alla National Highway Traffic Safety Administration (NHTSA), ovvero l’Agenzia del Ministero dei trasporti competente sul tema, di richiedere alle imprese che desiderano testare un sistema di guida automatizzato per lo sviluppo su strade pubbliche di presentare piani di autovalutazione della sicurezza prima di poter avviare o continuare i test. Piani che la stessa NHTSA dovrebbe poi rivedere al fine di garantirne l’adeguatezza.

Tecnicismi a parte la questione vera, oltre l’infausto incidente, ruota attorno alla nuova responsabilità e gli sviluppi futuri del tema. Nel caso analizzato, la NTSB ha diviso la colpa per l’incidente a guida autonoma di Uber tra la stessa compagnia, il responsabile della sicurezza del veicolo, la vittima e lo stesso stato dell’Arizona.

[continua a leggere]