Problemi etici per le auto a guida automatica

 

Modello sperimentale della Bosch di automobile a guida automatica
Modello sperimentale della Bosch di automobile a guida automatica

I costruttori di auto a guida automatica dovranno dotarle di sistemi elettronici intelligenti che privilegiano in caso di incidenti la sicurezza degli occupanti il veicolo o quella di esterni, come da esempio i pedoni ? Non esiste a livello etico una soluzione condivisa.

Dagli studi fatti fino ad ora emerge che molti vorrebbero essere protetti a ogni costo dalla propria auto: se questo principio valesse in assoluto, sarebbe una tragedia, perché si avrebbero veicoli che non minimizzano le vittime in caso di incidenti. In definitiva, non sarà facile scrivere i programmi dei computer di bordo in grado di riconciliare valori morali e interesse personale”

 I progressi dell’informatica permettono la costruzione di auto a guida automatica. Più esattamente, per ora, lo stato dell’arte – per auto capaci di velocità dello stesso ordine di grandezza di quelle tradizionali - permette di avere un autopilota che svolge funzioni di assistenza ma non di sostituzione completa del guidatore. Quest’ultimo deve sempre tenere le mani sul volante ed essere pronto a intervenire in tutte le situazioni di emergenza che la vettura segnala mediante allarmi visivi e acustici. Si tratta, dunque, di una modalità di guida semi (e non completamente) automatica, per cui l’intervento umano risulta ancora determinante e non eludibile: l’autopilota serve – così dichiarano i costruttori – a ridurre il carico di lavoro del guidatore.

Automobile Tesla S: primo caso di un'automobile a guida automatica a creare un incidente mortale.
Automobile Tesla S: primo caso di un'automobile a guida automatica a creare un incidente mortale.

Tuttavia qualche mese fa ( il 7 maggio c.a. ) è avvenuto negli Stati Uniti ( Florida ) il primo incidente di una di queste nuove auto: una Tesla S con a bordo un quarantenne – ex marine – mentre percorreva a gran velocità un’autostrada si è andata a schiantare contro un TIR che procedeva in senso opposto e che stava iniziando a svoltare a sinistra. Il guidatore dell’auto aveva inserito l’autopilota e tranquillo si godeva un film !

 Come ha dichiarato il fabbricante del veicolo, l’incidente è avvenuto poiché i sensori dell’auto ( telecamere e dispositivi vari ) non sono stati in grado di scorgere il Tir poiché questo – di colore bianco – si è confuso con il bianco del cielo di una giornata particolarmente luminosa.

L’evento è stato reso pubblico solo da qualche giorno per consentire agli organi inquirenti di svolgere l’inchiesta con la necessaria tranquillità.

 

A occuparsi dell’inchiesta- che ha una rilevanza commerciale e giuridica enorme - è l’ente nazionale per il traffico americano NHTSA ( National Highway Traffic Safety Administration ). Secondo tale agenzia l’attuale autopilota montato sulla Tesla S – in ogni caso - ha caratteristiche basiche e limitate: in autostrada fa sterzare da sola la macchina tenendola in carreggiata, effettua un sorpasso se il conducente mette una freccia, frena o accelera (ma questo lo fanno già tutti i cruise control moderni) a seconda del traffico che si trova davanti. È – insomma - un precursore dei futuri “veri” autopilota.

 

L’incidente è avvenuto allora per colpa dell’autopilota o per colpa del guidatore che non ha usato le opportune procedure di sicurezza ?

 

Modello sperimentale di auto a guida automatica costruito dalla Google.
Modello sperimentale di auto a guida automatica costruito dalla Google.

Il costruttore dell’auto ( la fabbrica californiana Tesla ) ovviamente si rende conto del pericolo che sta correndo (l'NHTSA ha il potere di infliggere multe pazzesche, obbligare al richiamo in officina di tutti i modelli, perfino di farli ritirare dalla circolazione e imporre modifiche tecniche enormi) e quindi mette le mani avanti: "E' importante insistere sul fatto che la decisione della Nhtsa è di condurre un semplice esame preliminare per determinare se il sistema abbia funzionato adeguatamente e in base alle aspettative", ha precisato la Tesla stessa in una nota ufficiale, sottolineando che "questo incidente è da mettere a confronto con quello che riguarda tutti i veicoli su strada negli Usa: un morto ogni 94 milioni di miglia. A livello mondiale, c'è un caso letale di incidente ogni 60 milioni di miglia". Tutto corretto. Ma se si scopre che l'incidente è davvero avvenuto per colpa dell'Autopilot, allora per la Tesla saranno davvero guai. Statistiche o no...

 

Indubbiamente considerando tutti i sensori ( telecamere, radar, gps, apparati di comunicazione, dispositivi vari ) dei qual è dotata tale autovettura appare strano che questa si sia infilata – senza frenare – sotto il rimorchio del Tir provocando la morte di chi stava a bordo. Potrebbe trattarsi di un banale malfunzionamento di qualche componente hardware di bordo o del software che governa il tutto.

 

In campo aeronautico l’autopilota è ormai una realtà in tutti i velivoli commerciali ma i piloti sono istruiti a sovraintendere il sistema e a rispondere prontamente a tutti i segnali che il sistema invia. L’estremo si ha nei velivoli militari da attacco a bassa quota nei quali l’autopilota è collegato a un radar e ad altri sensori che seguono l’andamento altimetrico del terreno e permettono all’aereo di volare in automatico a bassissima quota – seguendo la conformazione del terreno - in ogni condizione di tempo: anche in questi casi si insegna ai piloti – la cui vita è affidata ai circuiti elettronici – di essere vigili ed eseguire sempre le azioni che l’autopilota chiede di fare nelle varie fasi del volo anche se ritenute superflue. In ogni caso non sempre è possibile volare con tale tipo di autopilota. Questi esempi mostrano che la tecnologia deve essere usata con cautela e accortezza e che in ogni caso là dove è in gioco la propria e l’altrui vita occorre essere qualificati.

 

Proprio perché l’auto a guida automatica può causare incidenti – soprattutto mortali – sia per chi è a bordo sia per chi è all’esterno ( vedi i pedoni ) – il problema che sta sorgendo è di tipo legale e filosofico: il software deve dare priorità alla sicurezza di chi sta a bordo oppure a quella delle persone che l’auto può investire ?

 

 

 

Immaginiamo infatti il caso che mentre l’auto procede a buona velocità improvvisamente si para davanti un gruppo di pedoni sbucati da una viuzza laterale. Se il software è programmato per proteggere in primo luogo la vita del passeggero allora i pedoni saranno travolti; se invece il software è programmato per proteggere la vita dei pedoni allora l’auto dovrà compiere una brusca sterzata che la porterò fuori strada con tutte le conseguenze del caso.

 

Oppure immaginiamo il caso in cui l’auto per scansare un’altra auto che la sta investendo investe un pedone. Un uomo al volante ha il beneficio dello stress, e al peggio potrà essere accusato di omicidio colposo; ma se al volante c'è un programma, chi è responsabile penalmente?

 

Nel futuro solo veicoli a guida automatica: ogni veicolo è dotato di radar, telecamere, sensori, gps, ecc.
Nel futuro solo veicoli a guida automatica: ogni veicolo è dotato di radar, telecamere, sensori, gps, ecc.

In sostanza, le auto a guida automatica di Google, della Tesla e di altri produttori dovranno affrontare un esperimento mentale molto discusso chiamato “dilemma del carrello”. Nell’esperimento un carrello ferroviario sta per travolgere cinque persone: tu puoi tirare una leva per deviare la corsa su un altro binario, dove c’è solo una persona. Dovresti ucciderla per risparmiare le altre cinque?

 

Dibattito piuttosto controverso.

 

Secondo uno studio pubblicato a ottobre sul sito scientifico Arxiv se si chiede a persone che non si occupano di problemi etici come dovrebbe comportarsi un’auto senza pilota nel caso sia inevitabile la morte degli occupanti o quella dei pedoni, la maggior parte risponderà che le auto dovrebbero essere programmate in modo da non ferire i passanti.

 

I ricercatori, guidati dallo psicologo Jean-François Bonnefon della scuola di economia di Tolosa, hanno presentato a novecento persone vari scenari di possibili incidenti. E hanno scoperto che il 75 per cento pensa che l’auto debba sempre sterzare e uccidere il passeggero, anche per salvare un solo pedone….  a patto che non siano loro a trovarsi al volante !

 

Un altro approccio all’argomento potrebbe essere quello che il software dovrebbe scegliere il male minore: fra uccidere vari pedoni ( 5 o 10 ) e uccidere 1 solo conducente è meglio fare morire quest’ultimo; ma se invece abbiamo 1 solo pedone e 4 occupanti l’auto allora sarebbe meglio salvare la vita di questi ultimi.

 

Dal punto di vista commerciale quanti sarebbero disposti a comprare un’auto a guida automatica programmata per ucciderli in caso di incidenti del tipo descritti ? Forse pochi !

 

Sul tema si è anche espresso il MIT Technology Review che pone un nuovo dilemma. "Se poche persone acquistano automobili senza pilota perché programmate per sacrificare i loro proprietari, poi sempre più persone rischieranno di morire perché le auto normali hanno molti più incidenti di quelle a guida autonoma". Il classico cane che si morde la coda..

 

Il problema è complesso sia dal punto di vista etico che da quello tecnico.

 

I produttori di auto autonome devono ancora rendere noto il loro punto di vista sulla faccenda. Però, data la mancanza di unanimità anche al livello filosofico, pare improbabile che riescano a trovare una soluzione che accontenti tutti.

 

La maggior parte delle persone vuole vivere in un mondo in cui le auto siano in grado di minimizzare le vittime”, ha spiegato Iyad Rahwan, coautore dello studio del MIT. “Eppure molti vorrebbero essere protetti a ogni costo dalla propria auto: se questo principio valesse in assoluto, sarebbe una tragedia, perché si avrebbero veicoli che non minimizzano le vittime in caso di incidenti. In definitiva, non sarà facile scrivere gli algoritmi in grado di riconciliare valori morali e interesse personale”.

 

Consoli Silvestro

 

 

 

( 160703 )