Decisioni difficili per le auto a guida  autonoma
Pagina principale Tecnologie

Immaginate di trovarvi a bordo di un’auto che si guida da sola, che sta per entrare in collisione con un gruppo di pedoni. L’unica alternativa possibile è quella di sterzare cadendo giù da un burrone. Come dovrebbe comportarsi l’automobile?

Per anni questo paradosso morale è stato oggetto di dibattito da parte dei filosofi. Tuttavia la discussione ha acquisito una nuova dimensione pratica con la messa a punto delle auto che si guidano da sole, che si prevede diventeranno comuni sulle nostre strade nel prossimo futuro.

Nello specifico, le auto senza conducente costruite da Google, Tesla e altri produttori dovranno occuparsi del tanto dibattuto esperimento mentale chiamato “Dilemma del Carrello”.

Nella sua versione originale, un tram sta per travolgere cinque persone. Per evitare l’impatto hai la possibilità di tirare una leva per cambiare rotaia e, così facendo, solamente una persona si troverà lungo il percorso. È quindi opportuno uccidere questo individuo per salvarne altri cinque?

Molte persone pensano che la risposta sia sì, ma questo istinto morale è complicato da scenari alternativi. Ad esempio: ti trovi su una passerella pedonale al di sopra delle rotaie, e ti accorgi che il tram sta per travolgere le cinque persone. Accanto a te si trova un uomo grasso, e sai che il suo peso sarebbe sufficiente per arrestare la corsa del tram. È una scelta moralmente accettabile quella di spingerlo giù dal ponte per salvare i cinque?

Giù dal dirupo

Quando ai non-filosofi viene chiesto in che modo le auto che si guidano da sole dovrebbero comportarsi in una situazione in cui la morte dei passeggeri o quella dei pedoni è inevitabile, la maggior parte delle persone ritiene che i veicoli senza guidatore debbano essere programmati per evitare di arrecare danni agli altri; lo rivela un articolo pubblicato questo mese sulla rivista scientifica Arxiv.

I ricercatori, guidati dallo psicologo Jean-François Bonnefon della Toulouse School of Economics, hanno presentato a circa 900 volontari coinvolti nell’esperimento una serie di scenari di collisione. Il team ha scoperto che per il 75% delle persone le auto dovrebbero sempre sterzare bruscamente e uccidere i propri passeggeri, anche se si trattasse di salvare un solo pedone.

Tra i filosofi impegnati nel dibattito sulla teoria morale questa soluzione è complicata da vari ragionamenti che fanno leva sulle nostre intuizioni morali, ma portano a risposte diverse. Intorno al Dilemma del Carrello ruota un dibattito tanto acceso perché si tratta di un chiaro esempio di tensione tra il nostro dovere morale di non arrecare danno e quello di non compiere cattive azioni.

La prima delle due scuole di pensiero sostiene che un’azione morale è per definizione quella che massimizza la felicità del maggior numero di individui, una teoria conosciuta come utilitarismo. Basandosi su questo ragionamento, un’automobile senza conducente dovrebbe intraprendere tutte le azioni possibili per salvare il maggior numero di persone, indipendentemente dal fatto che essi siano passeggeri o pedoni. Se la collisione contro un muro uccidesse i cinque occupanti di un’auto, allora il veicolo dovrebbe procedere nella sua traiettoria anche se ciò causasse la morte di un innocente pedone. Il ragionamento potrà anche sembrare semplicistico, ma i dettagli della teoria utilitaristica, definita da John Stuart Mill, sono difficilmente contestabili.

Chi è responsabile?

Altri filosofi che hanno ragionato sul Dilemma del Carrello ritengono invece che l’utilitarismo sia un approccio primitivo e che una corretta azione morale non debba solamente valutare le conseguenze di un’azione, ma anche considerare chi ne è moralmente responsabile.

Helen Frowe, docente di filosofia pratica presso l’Università di Stoccolma che ha tenuto una serie di conferenze proprio sul Dilemma del Carrello, sostiene che i produttori di auto senza conducente dovrebbero programmare i veicoli in modo tale da proteggere gli innocenti passanti, dal momento che gli automobilisti hanno comunque una maggior responsabilità nei confronti del pericolo.

Ecco cosa ha dichiarato a Quartz:

“Abbiamo obblighi piuttosto stringenti di non uccidere gli altri. Se hai deciso di salire a bordo di un’auto che si guida da sola, allora devi accettare il rischio connesso.”

La questione etica si fa particolarmente complessa quando il ragionamento della Frowe evidenzia azioni morali diverse da quelle dell’utilitarismo. Ad esempio, a bordo di un’automobile senza conducente potrebbero esserci quattro passeggeri, oppure due adulti e due bambini nei sedili posteriori. In che modo cambierà il calcolo morale?

Se sul veicolo viaggiano solo degli adulti, la Frowe ritiene che essi dovrebbero morire per evitare la collisione con un pedone, dal momento che i passeggeri hanno scelto di salire sull’automobile e perciò sono investiti di una maggior responsabilità morale.

Nonostante la Frowe creda che i bambini non possano essere considerati moralmente responsabili, la ricercatrice rimane comunque dell’idea che non sia moralmente accettabile l’uccisione di una persona allo scopo di salvare le vite di due bambini.

“All’aumentare del numero di bambini, diventa sempre più semplice giustificare la morte del pedone. Ma quando sull’auto viaggiano solo degli adulti, dovrebbe essere possibile salvarne un gran numero – addirittura decine – per poter giustificare moralmente l’uccisione di una persona.”

Meglio non fare niente

Mostrate compassione nei confronti dei poveri programmatori (e, senza dubbio, anche degli avvocati) che stanno cercando di risolvere questo grattacapo, perché la situazione può persino complicarsi.

Che fare se un pedone si comporta in modo spericolato, o addirittura si mette sulla traiettoria dell’automobile con l’intenzione di farla deviare bruscamente, uccidendone così i passeggeri? (Sceneggiatori di Hollywood, scaldate i motori.) Dal momento che le auto prive di conducente non sono in grado di giudicare le intenzioni dei pedoni, questa implicazione etica è decisamente difficile da tenere in considerazione.

I filosofi sono ancora lontani dal trovare una soluzione, nonostante l’immensa letteratura scientifica che ha analizzato anche il più piccolo dei dettagli a livello etico. Ad esempio, è più immorale dirigere intenzionalmente il veicolo verso un pedone o semplicemente non fare nulla e, così facendo, causare l’investimento di qualcuno?

Il professor Warren Quinn, che ha insegnato filosofia presso l’Università della California di Los Angeles, ha rifiutato in modo categorico l’idea utilitaristica secondo cui la moralità dovrebbe massimizzare la felicità. Al contrario, ha affermato che gli esseri umani hanno il dovere di rispettare le altre persone, pertanto un’azione che in modo diretto e intenzionale determina un danno è peggiore, eticamente parlando, rispetto a un’azione indiretta che causa il medesimo esito.

Naturalmente va ricordato che le automobili si troveranno solo in casi molto rari ad affrontare la situazione in cui entrambi gli esiti saranno fatali con una probabilità del 100%. Ma quando circoleranno sulle strade molte auto capaci di guidarsi da sole, è tutt’altro che inverosimile che il software prima o poi debba scegliere se arrecare danno a un pedone o a un passeggero. Qualsiasi auto sicura priva di conducente dovrà essere in grado di riconoscere e bilanciare tali rischi.

I produttori di auto che si guidano da sole non hanno ancora preso posizione in merito alla questione. Tuttavia, data la mancanza di unanimità a livello filosofico, sembra poco probabile che siano destinati a trovare una soluzione universalmente accettabile. Così come per i filosofi, il tempo dirà se saranno soddisfatti dai risultati dei test delle loro teorie applicate alla vita reale.

Perfavore descrivi l'errore
Chiudere