Molto presto l’auto a guida autonoma sarà una questione etica: il mondo è pronto a lasciare ai software questo ambito e tutto ciò che ne consegue? Il dibattito non è soltanto tecnologico e culturale, riguarda anche una delle parti più delicate della guida, cioè stabilire la responsabilità degli incidenti e la dinamica delle decisioni sul male minore in caso di scelta senza vie di scampo.
Un esempio pratico: 2025, sulle strade della California corrono le prime auto che guidano da sole, una di queste si trova davanti un bus scolastico rovesciato e l’unico modo per non investirlo è deviare bruscamente verso un muretto, mettendo in pericolo la vita di chi è a bordo della vettura. Cosa farà l’algoritmo? E secondo quale criterio? Il male minore del rischio per una persona sola, anche se è il proprietario dell’automobile, oppure no? E chi acquisterebbe mai un’auto consapevole che in una determinata situazione potrebbe uccidere il suo passeggero?
Cosa faranno le auto del futuro quando dovranno prendere decisioni etiche, in che modo si comporteranno, chi le istruirà e secondo quali princìpi è il cuore dello studio di Arvix che spiega come questo tipo di tecnologia, e soprattutto chi la sviluppa, dovrà confrontarsi con questi dilemmi etici e dovrà giocoforza cercare di risolverli prima di portarli in esecuzione. Una corrente di pensiero che potrebbe risultare vincente è quella dell’utilitarismo, ma si tratta di una dottrina che andrebbe convertita e inserita negli algoritmi dagli sviluppatori. Una possibile serie di opzioni, una come tante.
E che si tratti di un terreno discrezionale e tremendamente spezzato tra teoria e pratica lo dimostra l’esperimento condotto dall’università dell’Oregon e della Toulouse School of Economics e pubblicato all’interno dello studio, dove hanno chiesto a diverse centinaia di persone di immaginare diversi scenari attinenti al dilemma morale del male minore inserendo come varianti il numero di potenziali vittime e l’estraneità o meno dal fatto. Come prevedibile, la percentuale di chi approva l’utilitarismo cresce col numero di vittime e quando chi decide è indotto a pensarsi come estraneo (75% ritiene che i pedoni vadano salvati), mentre si abbassa al diminuire delle vittime rispetto al conducente (solo nell’abitacolo) e con il coinvolgimento. Insomma, per dirla coi ricercatori «le persone sono favorevoli a sacrificare l’occupante dell’auto, finché quell’occupante non sono loro».
Should A Self-Driving Car Kill Its Passengers In A “Greater Good” Scenario? https://t.co/j1nO1Q1TsQ #innovations pic.twitter.com/oHj5AVEmgH
— Gaidar Magdanurov (@gaidar) October 27, 2015
Algoritmi suicidi
È l’argomento più interessante di questi tempi: la responsabilità morale di chi scrive gli algoritmi. David Orban, della singularity university, da tempo raccomanda di riflettere sull’avanzata degli algoritmi sui mercati di scambio, la sanità, le assicurazioni, il lavoro e ovviamente l’IoT. L’intero futuro della realtà fisica è collegato a un mondo costruito da ingegneri secondo obiettivi che spesso non contengono i discrimini che fin qui hanno retto le scelte collettive, ma obiettivi semplificati, velocissimi, senza “morale”. Almeno fino alle self driving car, perché su queste invece non si sfugge, bisogna per forza trovare una soluzione. Ecco perché le auto a guida autonoma sono il terreno più importante dell’approfondimento etico degli algoritmi.
Riflessioni di questo tipo coinvolgono anche ambiti collaterali: la strumentalità degli algoritmi, anzitutto, e il fatto che qualsivoglia responsabilità vada delegata a chi li ha sviluppati e non certo alla meccanica degli algoritmi stessi; la necessità di protocolli condivisi, codici di comportamento regolamentati a cui fare affidamento nello sviluppo di software che devono regolamentare il comportamento su strada in caso di emergenza. C’è un livello privato e uno sociale ed entrambi vanno osservati: con ogni probabilità su strada avrà la meglio il layer sociale, poiché in grado di regolamentare protocolli condivisi determinando paletti rigidi entro cui attenersi nello sviluppo di vetture che ambiscono alla guida autonoma su strade pubbliche.
A chi tocca?
Se è poco chiaro cercare di capire a quali regole soggiogare i software di queste auto e come evitare che questo si riveli un boomerang commerciale, dovrebbe teoricamente essere più chiaro a chi spetta occuparsene: il legislatore, le assicurazioni, i produttori di queste automobili, dovrebbero ciascuno per la loro parte prendersi una fetta di responsabilità. Al legislatore spetta rivedere le norme sul codice della strada considerando le peculiarità di questi mezzi, mentre i produttori dovrebbero partecipare alla costruzione di protocolli di sicurezza condivisi, una sorta di codice etico stradale a cui conformarsi secondo i dettami di parti terze. Le assicurazioni, a loro volta, saranno sconvolte dalla messa in commercio di auto che decidono al posto del conducente. In generale, le auto intelligenti e le smart city modificano le coperture assicurative essendo più che probabile che in determinate circostanze il cosiddetto anello debole – cioè l’uomo – sarà annullato dalla tecnologia e quindi la responsabilità di un sinistro sarà addebitato al costruttore del mezzo e non più al suo conducente.
Tuttavia sarebbe ingenuo pensare che questo processo sia semplice. Lo studio citato sul grado di preparazione culturale all’utilitarismo dei mezzi autonomi solleva il dubbio che alcuni costruttori potrebbero proporre diversi livelli di eticità per attrarre acquirenti preoccupati della propria sorte più che della collettività, per non parlare della possibilità che si crei un mercato nero di software manipolati, oppure chissà quali altri scenari complicatissimi. Scenari davanti ai quali il primo stato che sta lavorando a un bozza di regolamento sulle self driving car, la California, sta rispondendo in modo schiettamente conservativo. Nella proposta attuale, lo stato americano della Silicon Valley ipotizza una patente speciale per guidare un’auto di questo tipo, il che significa azzopparne le potenzialità sociali (ad esempio il trasporto di persone finora escluse per età o caratteristiche fisiche e mentali).
C’è anche uno scenario ulteriore da tenere in considerazione: andando verso una mobility-as-a-service, l’auto non avrà più un proprietario e questo dissocia pesantemente il guidatore dal veicolo, andando a creare una mobilità a due marce. La prima è quella di chi fruisce di veicoli altrui, pagando per un servizio, osservandone le regole e potendo contare sull’assenza di investimenti diretti in fase di acquisto; la seconda è quella di chi fruisce di veicoli propri, investendo sull’acquisto e potendo probabilmente godere di qualche vantaggio in più dal punto di vista della tutela da parte degli algoritmi. Equilibri ancora tutti da stabilire in un contesto che si presenta come estremamente complesso e affascinante.
Companies working on self-driving cars won’t be happy about new California regulations https://t.co/eyq8ETKC7R pic.twitter.com/b4X46SEvez
— Slate (@Slate) December 28, 2015
C’è di più: contro ogni ragionevolezza, lo stato della California scrive nero su bianco che il responsabile di eventuali sinistri prodotti dall’auto sarebbe il suo conducente. Una follia sotto ogni punto di vista: chi si prenderebbe la responsabilità di un incidente provocato da un’auto che guida da sola? La replica del legislatore è che su queste automobili ci sono sempre pedali e volante per intervenire con la guida umana, ma sarebbe facile dimostrare quando non vengono utilizzati. Inoltre è bene ricordare che il tempo di risposta in frenata di queste auto è considerevolmente migliore di quello umano, dieci volte più veloce. Una self driving car nota un ostacolo, un pericolo, in un decimo di secondo; l’essere umano impiega almeno un secondo, che a velocità di crociera in una strada urbana significa tra i 14 e i 20 metri in più prima dell’arresto del veicolo. Anche questo andrebbe considerato quando si immaginano in via teorica scenari del male minore, che forse sono costruiti attorno alle capacità umane, non a quelle di questi veicoli.
Questa prima bozza è una fin troppo ovvia soluzione che da un lato protegge le big company presenti in quello stato, almeno quelle che evidentemente non vogliono problemi, ma dal punto di vista ingegneristico non ha senso: non solo non si capisce in cosa consista allora questa autonomia, ma c’è il rischio di frenare una potenziale rivoluzione della mobilità per una paura che a questo punto solleva dubbi sulla reale efficacia di questa tecnologia, che tuttavia ha almeno dieci anni di sviluppo davanti a sé e meriterebbe più ottimismo e meno ansia da parte della politica.
Quante domande straordinarie
Leggere l’intero corpus di articoli di Webnews sulla tech mobility significa aprire la porta a un mondo che sta bussando con la voglia di entrare nelle nostre vite e non andarsene più. Molta della tecnologia che si sta sperimentando sull’automotive è ideata per diminuire di molto il peso delle scelte critiche umane rispetto al calcolo algoritmico. Più efficiente, più sicuro, più economico ed ecologico. Lasciando alle persone il piacere di farsi trasportare, di lavorare o intrattenersi nella vettura, di contribuire coi propri dati al continuo miglioramento delle città dei prossimi decenni. E se le soluzioni sono eccezionali, le domande che ancora restano sono straordinarie, impensabili fino a pochi anni fa. La prima delle quali risuona nel 2016 e negli anni che verranno: saremo capaci di decidere bene di non decidere più?