I robot sono al tempo stesso troppo intelligenti e troppo stupidi

È un paradosso noto per cui è facile renderli abilissimi a ragionare, ma difficile dotarli delle capacità percettive e motorie di un bambino

I droidi C-3PO e R2-D2 in una scena del film del 1977 Guerre stellari, il primo della saga
I droidi C-3PO e R2-D2 in una scena del film del 1977 Guerre stellari, il primo della saga
Caricamento player

Da diversi anni i robot prodotti dall’azienda di ingegneria e robotica statunitense Boston Dynamics sono protagonisti di video che circolano molto sui social. La loro capacità di eseguire azioni che richiedono coordinazione e precisione tende infatti a suscitare un certo stupore, perché è uno degli aspetti rispetto ai quali i robot in generale mostrano molti limiti nell’imitazione del comportamento umano. È relativamente facile rendere un computer in grado di battere un essere umano a scacchi, per esempio, ma è incredibilmente difficile dotarlo di capacità percettive e motorie che gli esseri umani mostrano già a un anno di età.

È un fatto apparentemente controintuitivo ma noto da tempo a chi si occupa di intelligenza artificiale e robotica, conosciuto come “paradosso di Moravec”, dal nome del ricercatore e informatico che lo teorizzò negli anni Ottanta, Hans Moravec. Mentre molte delle abilità più difficili da acquisire per gli esseri umani sono piuttosto banali dal punto di vista ingegneristico, come per esempio la padronanza dell’aritmetica, il compito più difficile nella programmazione dei robot è renderli capaci di azioni che gli esseri umani trovano facilissime: perché sono parte della loro natura e basate su abilità perlopiù inconsce.

Nel libro del 1988 Mind Children: The Future of Robot and Human Intelligence Moravec descrisse questo fenomeno in termini di difficoltà oggettiva o intrinseca di un compito e di destrezza e grado di libertà necessari per eseguire una certa azione fisica. In termini di difficoltà intrinseca l’aritmetica è molto più facile che camminare o comunicare faccia a faccia, azioni che richiedono invece la capacità di elaborare informazioni eterogenee e di agire in relativa autonomia.

– Leggi anche: Tesla ha molto lavoro da fare sul suo robot antropomorfo

Il motivo per cui ci sembra paradossale che i robot siano in grado di battere un campione di scacchi ma non di eguagliare un bambino di un anno in certi gesti manuali è che di solito non siamo consapevoli di quanto siano difficili le azioni basate su abilità innate, o geneticamente codificate, necessarie per funzioni come il movimento o la percezione. Questo “vantaggio” evolutivo, perlopiù inconscio, manca invece nel caso di compiti astratti come l’aritmetica, perché il pensiero razionale e cosciente ha una storia evolutiva molto più recente. Ha comunque migliaia di anni, scrisse Moravec, ma è efficace soltanto perché è sostenuto da una «conoscenza sensomotoria molto più antica e molto più potente, sebbene solitamente inconscia».

Il gioco degli scacchi è spesso citato come esempio significativo del tipo di “intelligenza” di cui i robot possono essere facilmente dotati, perché richiede meno risorse di calcolo rispetto ad altre azioni considerate invece facili per gli esseri umani. La popolarità di questo esempio, come scrisse nel 2002 il matematico e informatico australiano Rodney Brooks, deriva anche dal fatto che nelle prime ricerche sull’intelligenza artificiale l’intelligenza fu spesso definita come l’insieme di compiti «che scienziati maschi altamente istruiti consideravano impegnativi», dagli scacchi alla dimostrazione di teoremi matematici. Al contrario, «le cose che i bambini di quattro o cinque anni potevano fare senza sforzo, come distinguere visivamente tra una tazza di caffè e una sedia, o camminare su due gambe, o orientarsi camminando dalla loro camera da letto al soggiorno, non erano considerate attività che richiedono intelligenza».

In un incidente eccezionale ma piuttosto esemplare del paradosso di Moravec, durante un torneo di scacchi a Mosca nel 2022 un robot azionato da un programma e composto da un braccio meccanico afferrò per errore il dito del bambino di 7 anni contro cui stava giocando, anziché il pezzo degli scacchi che intendeva muovere. Il robot fallì nell’interpretare la nuova configurazione della scacchiera come il risultato di una contromossa dell’avversario, che l’aveva fatta prima che il robot terminasse del tutto la sua. Ma più che l’errore in sé, il fatto significativo fu che la forza utilizzata normalmente dal robot per afferrare i pezzi risultò sufficiente a rompere il dito del bambino.

Fin dalla fine degli anni Ottanta informatici come Moravec e Brooks compresero che i ricercatori impegnati da anni nella programmazione di robot in grado di imitare l’intelligenza umana stavano ottenendo successi significativi relativamente al tipo di intelligenza necessaria per giocare a scacchi o a dama, per esempio. La ricerca dei decenni successivi mostrò tuttavia quanto fosse invece difficile, contrariamente alle aspettative di quei primi ricercatori, imitare l’intelligenza necessaria per svolgere compiti fisici apparentemente facili ma che richiedono tatto: afferrare un uovo senza romperlo e senza farlo cadere, per esempio.

In un certo senso il gioco degli scacchi è incredibilmente complesso: del resto, come calcolato negli anni Cinquanta dal matematico statunitense Claude Shannon, esistono più mosse possibili negli scacchi che atomi nell’Universo osservabile. Ma in un altro senso è un gioco facilissimo: ha poche regole e riguarda un sistema chiuso. Non richiede nemmeno particolari capacità di ricordare le mosse, dal momento che nel proprio turno di gioco non serve valutare quelle già fatte ma visualizzare quelle che potrebbero essere fatte in seguito.

Soprattutto, come spiegò nel 2022 il giornalista scientifico statunitense Clive Thompson, giocare a scacchi non richiede di sapere nient’altro del mondo: «Non serve sapere come funziona la gravità, né sapere la storia del gioco. Non serve sapere che i cani non possono giocare a scacchi, né che i cani esistono». Al contrario, afferrare e spostare un oggetto richiede «hardware sofisticato e una solida conoscenza del mondo». È necessario percepire la posizione dell’oggetto e possedere un’appendice prensile abbastanza delicata da non distruggere l’oggetto e abbastanza ferma da sollevarlo e non farlo cadere. E servono anche molte altre informazioni: sapere che quell’oggetto può essere spostato e dove può essere riposto, e quanta forza è necessaria per muoverlo.

– Leggi anche: Come pensare ai diritti dei robot

Tutta questa conoscenza, che esiste a livello subconscio, è alla base di ogni azione e interazione umana nel mondo. Ed è qualcosa di cui è molto difficile dotare i robot, relativo a un problema spesso definito “problema del senso comune” nell’intelligenza artificiale. Come sintetizzò nel 2018 Fumiya Iida, ricercatore e professore di robotica della University of Cambridge, in riferimento alla manipolazione degli oggetti – una delle sfide apparentemente più banali ma più difficili nello sviluppo della robotica – «i robot sanno arrivare fino a Marte, ma non sanno fare la spesa».

Il gruppo di ricerca guidato da Iida studia l’interazione tra robot ed esseri umani, e si occupa nello specifico di un problema collegato al paradosso di Moravec e da loro definito “problema dell’ultimo metro”, che nel campo della logistica fa riferimento alle difficoltà tipiche dell’ultimo tratto delle catene di approvvigionamento. L’esempio da loro citato è quello dei robot dei magazzini di Amazon, che già dal 2014 trasportano facilmente scaffali pesanti oltre un quintale, da cui poi ciascun articolo ordinato viene rimosso e inserito in un contenitore, prima di essere imballato e spedito. La parte più difficile è proprio prendere l’oggetto dallo scaffale e metterlo in un contenitore.

Un ordine su Amazon può riguardare qualsiasi oggetto: un cuscino, un libro, un cappello o una bicicletta. Ma mentre per un essere umano è facile raccogliere quell’oggetto senza farlo cadere e senza schiacciarlo, perché sappiamo istintivamente quanta forza usare, per un robot è un compito molto più difficile. È in parte la stessa ragione per cui la gestione dei bagagli negli aeroporti è quasi interamente automatizzata, eccetto che nel punto in cui bagagli di forme, dimensioni e peso diversi devono poi essere caricati su un aereo. «Molte delle cose che facciamo nella nostra vita sono problemi dell’ultimo metro, e quell’ultimo metro è la barriera che impedisce ai robot di essere davvero in grado di aiutare l’umanità», disse Iida.

La ricerca nel campo dell’intelligenza artificiale sta attraversando una fase in cui il paradosso di Moravec tende a emergere con una certa frequenza. Grazie ai progressi nei sistemi di apprendimento i computer eseguono compiti sempre più difficili: dalla realizzazione dell’archivio completo della struttura delle proteine alle immagini generate a partire da informazioni testuali. «Ma ogni volta che l’intelligenza artificiale o la robotica hanno a che fare con il mondo fisico, molto spesso si scontrano con i problemi del paradosso di Moravec», scrisse Thompson.

Sono problemi di questo tipo, secondo lui, anche quelli che rendono molto difficile far funzionare le auto a guida autonoma nel modo affidabile che vorremmo. La loro intelligenza artificiale è addestrata su enormi quantità di dati su ciò che accade di solito durante la guida, cosa che le rende adattissime a gestire situazioni tipiche. Ma appena succede qualcosa di atipico, «allora siamo nei guai, perché in realtà non sanno niente del mondo», e non sono affidabili in quei contesti in cui non è sufficiente abbinare modelli già visti ma serve «prendere la nostra conoscenza dei fatti del mondo e usarla per ragionare».

– Leggi anche: «Le macchine senza autista non stanno andando da nessuna parte»

Per molti aspetti la tendenza a misurare l’intelligenza dei robot sulla base di quanto siano capaci di svolgere determinate azioni e attività umane è tuttavia un limite, secondo alcuni commentatori. Come scritto nel 2022 dal giornalista scientifico statunitense Matthew Hutson sul sito Science News spesso il divario tra intelligenza organica e sintetica è più o meno ampio a seconda di quanto antropomorfizziamo le macchine, sotto l’influenza dei termini stessi che utilizziamo per parlarne: da “intelligenza” ad “apprendimento”. Ma indipendentemente da quanto sia opportuno o meno che l’intelligenza artificiale sia simile a quella umana, arrivare a un punto in cui entrambe siano del tutto sovrapponibili potrebbe semplicemente non essere possibile: quell’intelligenza artificiale «potrebbe comunque avere punti di forza e di debolezza unici».

– Leggi anche: Capiremo mai come ragionano gli animali?