Come pensare ai diritti dei robot

Non è ancora una questione urgente, ma in futuro richiederà delle riflessioni e gli studiosi suggeriscono l'analogia con i diritti degli animali

Dal film “Atto di forza”.
Dal film “Atto di forza”.
Caricamento player

Nel febbraio del 2017, il Parlamento Europeo votò una risoluzione presentata dalla commissione giuridica che conteneva una serie di raccomandazioni rivolte alla Commissione europea in materia di «diritto civile sulla robotica» e suggeriva, tra le altre cose, l’istituzione di uno status giuridico specifico per i robot e la stesura di un codice etico per chi li progetta. Uno degli obiettivi dichiarati nel testo era quello di rendere possibile un’attribuzione di responsabilità nel caso in cui macchine sempre più complesse e sofisticate provochino danni nel prendere decisioni autonome interagendo all’interno di determinati ambienti.

Il presupposto alla base della risoluzione del Parlamento Europeo, come di molte altre riflessioni sulla necessità di avviare un discorso sullo status giuridico dei sistemi di Intelligenza artificiale, è che «più i robot sono autonomi, meno possono essere considerati meri strumenti nelle mani di altri agenti», che siano essi le aziende produttrici, le persone proprietarie o gli utenti finali.

Questo pone la questione se e in che misura le categorie tradizionali di responsabilità siano adatte a definire quelle dei diversi agenti nel caso di azioni o omissioni imputabili alle macchine e le cui cause non siano facilmente riconducibili a un soggetto umano specifico, come ha in parte dimostrato l’esempio del primo incidente in cui una persona sia morta dopo essere stata investita da un’auto a guida autonoma, avvenuto in Arizona nel marzo 2018. La causa dell’incidente fu infine collegata a un malfunzionamento del software dell’auto, ma la responsabilità fu attribuita alla disattenzione dell’“autista di sicurezza”, ossia il conducente umano seduto al posto guida e tenuto a monitorare la strada durante il viaggio (il processo, molto controverso, è ancora in corso).

Esiste da tempo un dibattito più generale ed esteso sui diritti delle macchine, che comprende ma non si limita a quello sulla responsabilità giuridica derivante dalle azioni dei robot. È un dibattito che ha subìto una costante accelerazione negli ultimi anni, determinata dai notevoli progressi compiuti dalla ricerca tecnologica nel campo dell’intelligenza artificiale. Progressi che hanno portato, tra le altre cose, allo sviluppo di sistemi in grado di svolgere attività tipicamente umane e di sfruttare processi cognitivi assimilabili a quelli degli umani, come la capacità di apprendere dall’esperienza sulla base di determinati “input” e di prendere decisioni in autonomia.

– Leggi anche: Come l’Europa vuole regolamentare le intelligenze artificiali

I risultati di questi progressi hanno reso più familiare e facile da immaginare anche tra i meno appassionati di fantascienza la prospettiva di un futuro in cui la specie umana potrebbe convivere con esseri artificiali profondamente integrati nel tessuto sociale e con abilità e qualità difficilmente distinguibili da quelle di un qualsiasi essere umano. Esistono già oggi robot utilizzati nelle strutture sanitarie, robot sociali per l’assistenza e la compagnia delle persone anziane, e addirittura sacerdoti robot.

Di conseguenza risultano oggi meno bizzarre che in passato anche questioni etiche apparentemente prive di un senso pratico immediato, come quelle che si occupano, per esempio, del problema se favorire oppure no lo sviluppo di capacità emotive nei sistemi di Intelligenza artificiale, e come considerare i robot in relazione alle loro possibili sofferenze, se dovessero un giorno essere in grado di soffrire.

Le difficoltà ad affrontare sul serio questo tema derivano comunemente dall’apparente solidità di due argomenti, secondo Hugh McLachlan, docente emerito di Filosofia pratica (la filosofia che si occupa dei problemi dell’agire e del sapere che lo governa) alla Glasgow Caledonian University. Il primo è l’idea che esseri artificiali capaci di rendere sensate e necessarie simili questioni etiche non siano possibili. E il secondo è che soltanto gli esseri dotati di corpi e organi vitali siano suscettibili di considerazioni di ordine morale.

Il primo argomento è in genere sostenuto dalla nostra tendenza a supporre che i «fenomeni mentali» – coscienza, sentimenti, pensieri – siano in qualche modo irriducibilmente diversi dai fenomeni materiali. E da qui deriva la conclusione secondo cui gli elementi che costituiscono computer e macchine costruite dagli esseri umani siano fondamentalmente qualcosa di diverso da una mente cosciente. Ma a prescindere dalla solidità di questa convinzione, sostiene McLachlan, pure ammettendo che esista un’irriducibile incommensurabilità tra gli elementi costitutivi delle macchine e una mente cosciente, questo non sarebbe sufficiente a escludere che persone senzienti e dotate di coscienza create artificialmente possano esistere, e che non possa verificarsi per quelle persone qualcosa che vale già per gli esseri umani.

diritti dei robot

Una testa del robot Sophia, sviluppato dallo studio Hanson Robotics di Hong Kong (AP/Vincent Yu)

Come affermato tra la fine dell’Ottocento e l’inizio del Novecento dall’influente sociologo francese Émile Durkheim, fenomeni come il linguaggio, la morale o il diritto, non possono essere ricondotti ai singoli individui che compongono la società: sono proprietà che «emergono» dall’aggregazione sociale e che non potrebbero esistere senza l’interazione dei singoli esseri umani con le loro particolari caratteristiche psicologiche e biologiche. Il che significa che quei fenomeni non possono essere spiegati soltanto a partire da quelle caratteristiche, e che in un certo senso occorre pensarli come funzioni dell’organismo sociale necessarie all’integrazione e alla coesistenza tra gli individui.

Lo stesso discorso riguardo alla possibilità di proprietà «emergenti», secondo McLachlan, si può applicare a tutte le scienze. È chiaro che non esisterebbero computer né altri dispositivi elettronici senza componenti in silicio, cavi e altri materiali. Ma è altrettanto chiaro che le operazioni di un computer non possono essere spiegate soltanto in termini di caratteristiche di quei componenti: è la particolare interazione e combinazione di quei componenti con altri fenomeni – l’elettricità, per esempio – a far “emergere” il computer come fenomeno di tipo nuovo rispetto alle parti di cui è composto. A loro volta, i computer interagiscono poi in modo tale da rendere possibile Internet, altro fenomeno di tipo diverso da un singolo computer fisico e tangibile.

In questo senso, dovremmo probabilmente supporre che anche ciò che definiamo una mente cosciente non sia qualcosa di riducibile al cervello, alle molecole e agli altri elementi necessari per il suo funzionamento. Potrebbe essere un fenomeno di tipo diverso, secondo McLachlan, ma che emerge a partire dalla particolare interazione e combinazione di enti fisici. E non c’è quindi una ragione logica ovvia per cui la coscienza tipica degli esseri umani – «la capacità di pensare e prendere decisioni» – non possa un giorno emergere da macchine prodotte dagli esseri umani, dall’interazione tra quelle macchine e dal loro adattamento a determinati contesti di interazione con gli esseri umani.

– Leggi anche: I robot sociali per gli anziani soli

Il secondo argomento che induce molte persone a ritenere inapplicabile ai robot la categoria del diritto civile e inadatte le questioni etiche è che le macchine siano prive di “vita”, non abbiano un corpo umano e non siano esseri viventi, o che potrebbero esserlo ma in un senso comunque molto controverso. Ma anche questa ragione, secondo McLachlan, perde gran parte della sua fondatezza non appena si consideri un fatto in realtà molto poco controverso, e cioè che sono normalmente oggetto della nostra considerazione morale, del nostro rispetto e della nostra benevolenza sia le persone defunte che quelle non ancora nate, intese come generazioni future. Né le une né le altre sono propriamente viventi, ed entrambi i gruppi non hanno ancora un corpo o non ce l’hanno più, né naturale né artificiale.

Negare a una popolazione di persone artificiali – al momento difficile da realizzare ma facile da immaginare – il rispetto morale sulla base del fatto che quelle persone avrebbero, nel caso, un corpo artificiale anziché uno naturale sarebbe in un certo senso un atto arbitrario, e richiederebbe una giustificazione meno ovvia di quanto possa sembrare. «Un giorno, forse prima di quanto pensiamo, una riflessione sull’etica del trattamento delle macchine razionali e senzienti potrebbe rivelarsi più di un astratto esercizio accademico», conclude McLachlan.

Un’analogia già piuttosto frequente all’interno delle riflessioni sui diritti delle macchine è quella tra i robot e gli animali non umani, rispetto ai quali il discorso sui diritti è da tempo considerato appropriato e, in una certa misura, necessario.

Se avere abilità cognitive simili alle nostre è considerato un fattore rilevante nella definizione dei nostri standard morali verso altre specie animali e nella concessione di determinati diritti a quelle specie – come pure è un fattore la nostra condizione di superiorità morale e quindi di responsabilità nei loro confronti – non si capisce perché non dovrebbero rientrare sotto quella considerazione morale anche forme di vita artificiale molto avanzate e in qualche modo poste sotto una tutela umana, affermava il giornalista Nathan Heller nel 2016 in un articolo del New Yorker.

diritti robot philip dick

Un giornalista intervista un robot dalle sembianze dello scrittore di fantascienza Philip K. Dick, sviluppato da Hanson Robotics e mostrato alla fiera di design NextFest a Chicago, Illinois, il 24 giugno 2005 (Scott Olson/Getty Images)

«Finché non saremo in grado di individuare cosa ci è richiesto dagli animali, non avremo chiaro ciò che dobbiamo ai robot – o ciò che loro devono a noi», scrisse Heller. E prese l’esempio dei pesci: numerose ricerche, come quelle dell’etologo inglese Jonathan Balcombe, indicano che alcune specie siano capaci di provare emozioni come paura, stress, gioia e curiosità, cosa che potrebbe effettivamente apparire strana «alle persone che guardano un branzino fisso negli occhi e non vedono niente».

– Leggi anche: Dovremmo ripensare a come uccidiamo i pesci?

In base a questi studi, dovremmo concludere che il nostro atteggiamento riflette soltanto un pregiudizio, dal momento che l’«esperienza del pesce, e quella di molte creature di ordine inferiore, è più vicina alla nostra di quanto si possa pensare». Questo pregiudizio, secondo Balcombe, è dovuto al fatto che ci riesce più facile entrare in empatia con un criceto, che sbatte le palpebre e tiene il cibo tra le zampe, che con un pesce senza dita e senza ciglia. E per quanto il cervello dei pesci sia effettivamente piccolo, presumere che ciò implichi la loro stupidità, è «come sostenere che i palloncini non possano volare perché non hanno ali». Se invece considerassimo i pesci come nostri «pari» sul piano cognitivo, dovremmo includerli nella nostra cerchia di doveri morali.

Un’altra caratteristica in relazione alla quale tendiamo a tracciare il confine dei nostri doveri morali, secondo Heller, è la capacità di provare dolore. «La maggior parte delle persone a cui venisse chiesto di annegare un gattino proverebbe una dolorosa angoscia morale», e questo indica che, a un determinato livello, consideriamo la sofferenza come qualcosa di importante. Il problema di questo approccio è che le nostre «antenne per il dolore» altrui sono notevolmente inaffidabili, come peraltro dimostrano i casi sperimentali in cui proviamo angoscia anche rispetto alle sofferenze dei robot, notoriamente incapaci di soffrire.

Nell’estate del 2014, un gruppo di sviluppatori e ricercatori canadesi elaborò un esperimento sociale dopo aver costruito un robot “autostoppista”, chiamato hitchBOT e programmato per intrattenersi in brevi conversazioni, per misurare «quanto i robot possano fidarsi degli esseri umani».

Diventato relativamente popolare dopo un lungo viaggio in autostop in Europa e un altro anche in Canada, da costa a costa, hitchBOT fu distrutto nell’agosto 2015 in un atto di vandalismo a Filadelfia durante il suo terzo viaggio, negli Stati Uniti. La notizia fu seguita e commentata con una certa partecipazione e con sconforto: «Non posso mentire. Sono ancora devastato dalla morte di hitchBOT», commentò un giornalista su Twitter.

Un altro caso citato dal New Yorker come esempio dei sentimenti in gioco nella valutazione delle sofferenze di altri esseri non umani, inclusi quelli artificiali, è quello di un robot simile a un millepiedi realizzato nel 2007 da un ingegnere statunitense del Los Alamos National Laboratory, uno dei più vasti istituti multidisciplinari al mondo, nel New Mexico. Era programmato per liberare dalle mine tratti di terreni in operazioni di guerra, strisciando in avanti finché non avesse perso tutte le “zampe”. Durante un’esercitazione militare in Arizona, un colonnello dell’esercito ordinò di interromperla definendo «disumana» la violenza sul robot.

Casi come questi, secondo il New Yorker, dimostrano in generale quanto sia complicato adottare il criterio della «parità morale» di altre entità nell’articolazione del discorso sui diritti, perché non è chiaro quali siano i confini di quella parità e perché gli sforzi per comprenderlo sono soggetti ai nostri pregiudizi e alle nostre percezioni errate.

– Leggi anche: L’allevamento di insetti è una buona idea?

In generale, secondo Kate Darling, ricercatrice del Massachusetts Institute of Technology (MIT) specializzata in etica dei robot e interazione tra robot ed esseri umani, autrice del libro The New Breed: How to Think About Robots, l’analogia tra le macchine e gli animali non umani è comunque utile per diverse ragioni. Prima di tutto ci allontana dalla persistente inclinazione a utilizzare gli esseri umani come misura delle abilità dei robot, predisponendoci a una valutazione probabilmente più utile delle varie possibilità di coesistenza e collaborazione, come è storicamente avvenuto con il processo di addomesticamento degli animali. Quello dei buoi per arare i campi o dei piccioni per trasportare dei messaggi, per esempio.

Anche rispetto alla diffusa opinione che le macchine stiano già sostituendo gli esseri umani nel lavoro e potrebbero farlo sempre di più in futuro, l’analogia con gli animali è utile a comprendere che abbiamo sempre una serie di possibilità. Così come hanno sfruttato in passato le abilità degli animali in determinati modi, sono ancora le persone a decidere come sfruttare le tecnologie, se come supplemento al lavoro umano o come automatizzazione di quel lavoro. «Il pericolo per i posti di lavoro delle persone non sono i robot: sono le decisioni aziendali, che sono guidate da un più ampio sistema economico e politico di capitalismo aziendale», ha detto Darling.

L’analogia tra robot e animali può inoltre servire ad articolare in termini più corretti e appropriati il discorso sulle responsabilità delle macchine in caso di danni provocati dalle loro azioni, evitando che possano ripetersi storie attestate nel Medioevo come i processi agli animali avvenuti in Europa tra il XII e il XVIII secolo.

processi animali

Un’illustrazione tratta dal libro “Chambers Book of Days”, pubblicato nel 1864 dell’autore scozzese Robert Chambers (Archive.org)

«Lo abbiamo fatto per centinaia di anni di storia occidentale, con maiali, cavalli, cani, locuste e anche topi», ha detto Darling al Guardian, per quanto assurdo possa apparire assumendo la prospettiva moderna degli attuali sistemi giuridici, che ritengono gli animali non umani privi di arbitrio morale e quindi moralmente non responsabili delle loro azioni. Il suo timore è che qualcosa del genere possa avvenire anche con i robot, a forza di paragonare le macchine alle persone e tentare di applicare in altri contesti categorie sviluppate a partire da modelli umani. «Stiamo già cominciando a vederne tracce, quando sentiamo aziende e governi dire: “Non è stata colpa nostra, è stato l’algoritmo”», ha aggiunto Darling.

L’argomento generalmente utilizzato dalle aziende è che non dovrebbero essere ritenute responsabili dei processi di apprendimento relativi alle tecnologie da loro sviluppate, poiché è per loro impossibile prevederne ogni possibilità. Ma anche in questo caso, secondo Darling, può essere utile riflettere sui modelli storici che abbiamo adottato nel tempo per appurare le responsabilità quando a provocare danni imprevisti sono gli animali. E può avere senso, per esempio, pensare alle distinzioni che normalmente facciamo tra animali pericolosi e altri più sicuri, con ampi margini di flessibilità nella valutazione degli eventi a seconda del contesto.

«Se il tuo piccolo barboncino morde qualcuno per strada, in modo del tutto inaspettato e per la prima volta, non sarai punito come lo saresti se al posto del barboncino ci fosse un ghepardo», ha detto Darling, aggiungendo che il punto fondamentale del discorso è capire che il comportamento imprevedibile non è un problema nuovo e non dovrebbe essere permesso alle aziende sostenere che lo sia.

Darling non esclude che i robot possano un giorno meritare dei diritti, nel caso in cui diventassero coscienti o senzienti, ma ritiene comunque questa prospettiva ancora abbastanza remota. Anche relativamente a questo aspetto crede comunque che l’analogia con gli animali possa essere un indicatore più affidabile di come, nella pratica, potrebbe svilupparsi in futuro questo dibattito nei paesi occidentali, riflettendo probabilmente una certa «ipocrisia» di fondo. «Ci piace pensare di preoccuparci della sofferenza degli animali, ma osservando il nostro comportamento effettivo siamo attratti dalla protezione degli animali a cui siamo collegati emotivamente e culturalmente», ha detto.

È quindi probabile, secondo lei, che con i robot possa finire allo stesso modo: daremo diritti ad alcuni e non ad altri. Potremmo, per esempio, trovare più sensato riservare trattamenti preferenziali a quei robot costruiti con caratteristiche esteriori antropomorfe, con cui risulterà probabilmente più facile empatizzare rispetto a macchine anche uguali per componentistica e funzionamento, ma magari dall’apparenza di semplici scatole metalliche.