La coscienza delle auto che si guidano da sole

Cosa faranno quando dovranno prendere decisioni "etiche", come decidere se investire una scolaresca o evitarla schiantandosi su un muro? Chi decide?

Il prototipo della self-driving car di Google (AP Photo/Tony Avelar)
Il prototipo della self-driving car di Google (AP Photo/Tony Avelar)

Da tempo si parla con entusiasmo e qualche preoccupazione della diffusione delle auto che si guidano da sole: il progetto dell’auto di Google che si guida completamente da sola – e che è già in grado di muoversi autonomamente nel traffico – ha per esempio attratto molta curiosità in tutto il mondo. Da un po’, tuttavia, chi si occupa di queste cose ha cominciato a discutere di un problema che, seppur non ancora effettivo, potrebbe diventare di grande rilevanza e di difficilissima soluzione e regolamentazione: come si comporteranno le auto che si guidano da sole quando, in una situazione di pericolo, dovranno scegliere se evitare un pedone o mettere a rischio la vita di chi è nell’abitacolo? Cosa faranno quando dovranno prendere decisioni “etiche”, come decidere se investire una scolaresca o evitarla schiantandosi su un muro? Uno studio compiuto da ricercatori del MIT (Massachusetts Institute of Technology), dell’università dell’Oregon e della Toulouse School of Economics e pubblicato sul sito Arxiv ha cercato di rispondere a questa domanda, chiarendo quali potrebbero essere i problemi che si dovranno affrontare.

Le automobili che si guidano da sole già esistono – le più avanzate sono quelle di Google e Tesla – e nei prossimi anni ci si aspetta che si diffondano sempre di più: c’è chi ipotizza che nell’arco di un paio di decenni diventeranno addirittura la norma, rimpiazzando del tutto le auto con sistemi di guida tradizionali. Technology Review, la rivista del MIT, spiega che queste auto saranno «più sicure, più ecologiche e più efficienti di quelle “manuali”» e il sito IFL Science scrive che «ci sono pochi dubbi sul fatto che le auto che si guidano da sole siano il logico futuro del trasporto pubblico, e che promettono di rivoluzionare gli spostamenti in tutto il mondo». Il Washington Post parte proprio da un immaginario futuro di questo tipo per mettere i suoi lettori di fronte al problema da cui sono partiti i ricercatori dello studio pubblicato su Arxiv.

È il 2035. Nel mondo ci sono 9 miliardi di persone. Le calotte polari si sono sciolte e l’Arabia Saudita ha finito il petrolio. Will Smith è impegnato a combattere i robot del film I Robot e Matt Damon l’hanno dimenticato su Marte. Te ne stai seduto nella tua auto che si guida da sola, giocherellando con il tuo iPhone 37 mentre lei ti porta dove devi andare. All’improvviso compare improvvisamente un gruppo di pedoni in mezzo alla strada, proprio davanti alla tua auto. Ai bordi della strada ci sono dei muri. C’è bisogno di prendere una decisione: evitare il gruppo di pedoni deviando la macchina sul muro [e quasi sicuramente morire] oppure salvarsi tirando dritto, ma uccidendo quasi sicuramente molti di quei pedoni?

Negli scenari immaginati dai ricercatori dello studio di Arxiv, a prendere quella decisione sarà un’automobile, e lo dovrà fare in base a degli algoritmi. Gli algoritmi delle auto che si guidano da sole dovranno decidere in pochi istanti cosa fare e dovranno farlo considerando variabili di tipo etico e morale. La risposta facile è che le auto che si guidano da sole – in inglese le chiamano AV, “Autonomous Vehicle” – dovranno fare quello che farebbe un umano: scegliere il male minore. La risposta difficile ha a che fare con il fatto che per un essere umano il male minore è soggettivo e, in quei casi, dettato dall’istinto. Per un’auto che si guida da sola il male minore non può che essere invece il frutto di calcoli analitici e oggettivi: ma questo piacerà ai loro proprietari?

Il dilemma che riguarda la scelta del male minore è ben spiegato dal “problema del carrello ferroviario”, un’immaginaria situazione molto simile a quella dell’auto diretta verso i pedoni, in cui un uomo può decidere la vita o la morte di altre persone deviando il percorso di un carrello su un binario ferroviario: nessuna delle scelte possibili permette però che non ci siano morti.

I ricercatori dello studio pubblicato su Arxiv sono psicologi e hanno spiegato che «è difficilissimo definire un algoritmo che porti quelle auto a gestire dilemmi morali di questo tipo». Le auto che si guidano da sole dovranno raggiungere tre obiettivi: «essere coerenti, evitare la pubblica indignazione e non scoraggiare i loro possibili futuri acquirenti». La coerenza impone di fare decisioni simili in simili condizioni, il problema della pubblica indignazione riguarda le conseguenze che un incidente con la morte di molti pedoni avrebbe per chi ha progettato e venduto l’auto, il problema dei futuri acquirenti ha a che fare con il fatto che non tutti vorrebbero che l’auto che hanno comprato scegliesse di sacrificare loro al posto di altri.

Il titolo dello studio pubblicato su Arxiv è “Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?”: spiega che le auto che si guidano da sole dovranno confrontarsi con questioni proprie dell’etica sperimentale, compiendo probabilmente scelte basate sull’utilitarismo, che, in estrema sintesi, dice che sacrificare una vita è meglio del sacrificio di molte vite. Il problema è che quella vita potrebbe essere quella della persona all’interno dell’auto. «Chi comprerebbe un’auto programmata per sacrificare il suo proprietario?», chiede Technology Review.

I ricercatori dello studio pubblicato su Arxiv hanno chiesto ad alcune centinaia di persone di immaginare scenari simili a quello dell’auto che si guida da sola che – in una strada tra due muri – deve scegliere tra l’andare contro il muro e l’investire i pedoni: negli scenari variavano alcuni parametri, come per esempio il numero di persone nell’auto e quelle sulla strada e la loro età. Immaginando di essere estranee alla situazione le persone hanno scelto nella maggior parte dei casi di sacrificare chi stava nell’auto. Immaginando di essere loro a trovarsi nell’auto molte persone cambiavano però idea, scegliendo di salvarsi. Al termine delle domande il 75 per cento delle persone ha detto di ritenere moralmente giusto evitare i pedoni, solo il 65 per cento ha però detto di pensare che le auto che si guidano da sole dovrebbero essere programmate per farlo. L’evidente paradosso  è che – scrive Technology Review – «le persone sono favorevoli a sacrificare l’occupante dell’auto, finché non sono loro l’occupante dell’auto».

I problemi etici e morali non possono essere sempre e per tutti giusti o sbagliati, e non è nemmeno chiaro chi potrebbe decidere come programmare le automobili che si guidano da sole. Potrebbero farlo gli stati e le leggi, potrebbero farlo i produttori delle automobili oppure – come suggeriscono i ricercatori dello studio – potrebbero essere gli acquirenti stessi a decidere di impostare il “livello di moralità” della loro auto. Anche in quel caso ci sarebbero però molti problemi: «Se chi vende un’auto offre diverse versioni di moralità dell’algoritmo e un acquirente ne sceglie consapevolmente uno, la colpa per un eventuale incidente sarebbe di chi ha venduto o di chi ha comprato?».

Il problema etico delle auto che si guidano da sole è complicato e ancora senza risposte. Diventa ancora più complicato nel futuro immaginato da Digital Trends, un futuro in cui le auto non solo saranno autonome e diffuse, ma anche “networked”, collegate in rete tra di loro. Digital Trends si chiede come faranno le auto che si guidano da sole a prendere decisioni che riguardano più auto (e quindi non solo un’auto e dei pedoni). Quelle auto collegate in rete avranno una visione d’insieme e i loro algoritmi dovranno considerare parametri ancora più complicati. Le auto collegate in rete potranno superare le debolezze delle decisioni morali di un autista umano, ma per farlo avranno bisogno di programmatori che dicano loro come comportarsi, e anche in questo caso non è chiaro chi, come e in base a quale principi tecnologici, etici o legali potrà e dovrà farlo.