In che senso l’intelligenza artificiale potrebbe superare quella umana?

È un’ipotesi discussa sempre più spesso, oggetto di fraintendimenti e conflitti di interessi, ma anche di un dibattito stimolante e incerto

Una bambina si avvicina a un bancone dietro cui è seduto un robot umanoide
Una bambina osserva un robot umanoide in una biglietteria, a Tokyo (AP Photo/Jae C. Hong)
0 seconds of 0 secondsVolume 90%
Press shift question mark to access a list of keyboard shortcuts
00:00
00:00
00:00
 

A giugno, durante una sessione di streaming su X, l’imprenditore statunitense Elon Musk disse che sul lungo periodo i robot umanoidi nel mondo supereranno numericamente gli esseri umani, arrivando a un rapporto di 10 a uno. È un concetto che Musk ripete da tempo e che altri imprenditori dell’industria tecnologica come lui e teorici dell’intelligenza artificiale esprimono in varie forme e con frequenza crescente per descrivere un’evoluzione della storia umana che secondo loro avrebbe ripercussioni inimmaginabili sull’economia mondiale.

Il superamento dell’intelligenza umana da parte di quella artificiale, che sia per prestazioni computazionali o per prevalenza di individui robotici rispetto a quelli umani, è un tema alquanto divisivo. Alla base di molte incomprensioni tra chi ne discute c’è una confusione sui termini della questione, oltre che un’idea molto variabile di “intelligenza”: una capacità misurabile sotto diversi aspetti e in vari contesti, ma anche un concetto problematico sia nelle scienze umane che in quelle naturali.

Come nel caso delle criptovalute, una delle principali difficoltà a orientarsi nel dibattito è poi dovuta all’influenza degli interessi di alcuni dei soggetti che contribuiscono ad alimentarlo, con o senza l’obiettivo di attirare attenzioni e investimenti. Uno dei più conosciuti esperti di intelligenza artificiale, per esempio, è il neozelandese Shane Legg: un autore di studi molto citati, nonché cofondatore dell’azienda DeepMind Technologies, poi acquisita da Google nel 2014 per circa mezzo miliardo di dollari e diventata DeepMind, la divisione aziendale che si occupa di intelligenza artificiale.

Legg è l’attuale capo responsabile di DeepMind per la ricerca sull’intelligenza artificiale generale (artificial general intelligence, AGI), cioè un tipo di intelligenza teoricamente in grado di fare qualunque cosa un essere umano sia in grado di imparare a fare. È un concetto citato oggi da diversi studiosi e informatici, ma che proprio Legg contribuì a definire nei primi anni Duemila insieme all’informatico e ricercatore newyorkese Ben Goertzel. Da allora è progressivamente diventata l’espressione più utilizzata per indicare l’ipotesi di sviluppo di un’intelligenza artificiale sovrumana, più o meno imminente, alla base di riflessioni entusiaste da un lato e preoccupate dall’altro.

– Leggi anche: Bisogna capirsi su cosa sia “l’intelligenza artificiale”

Nel 2011 Legg aveva stimato una probabilità del 50 per cento che un’intelligenza artificiale di livello umano sarebbe esistita entro il 2028. Più o meno la stessa stima sui tempi era stata condivisa molti anni dopo, nel 2023, da Sam Altman, CEO di OpenAI, l’azienda che sviluppa il software ChatGPT. Sia lui che Legg, insieme a influenti ricercatori come Geoffrey Hinton e Yoshua Bengio, avevano peraltro sottoscritto nel 2023 una lettera aperta per denunciare il rischio «esistenziale» che l’AI pone per l’umanità, al pari di fenomeni come le pandemie e la guerra nucleare.

Alcuni importanti dirigenti tra gli oltre 350 firmatari di quella lettera erano però stati accusati di avere un atteggiamento ipocrita rispetto ai progressi dell’intelligenza artificiale, perché avevano continuato a finanziare la ricerca. Secondo i più scettici riguardo alla buona fede di dirigenti e responsabili delle grandi aziende tecnologiche, l’obiettivo della lettera era più che altro sollecitare una regolamentazione comune del settore in modo da poter scaricare in futuro almeno una parte delle responsabilità. Enfatizzare i rischi a lungo termine avrebbe peraltro diffuso la percezione pubblica che gli strumenti dell’intelligenza artificiale fossero più potenti e avanzati di quanto le persone immaginassero: percezione da cui le aziende che vendono quegli strumenti tendono generalmente a trarre vantaggio economico.

– Leggi anche: Perché siamo gentili con le intelligenze artificiali?

Il conflitto di interesse è in generale uno degli argomenti che emergono più spesso ogni volta che si discute della prospettiva di un superamento delle facoltà umane da parte dell’intelligenza artificiale. È emerso anche nel caso della recente pubblicazione di un saggio che ha attirato molte attenzioni: un «punto della situazione» sui progressi dell’AI previsti entro i prossimi dieci anni, scritto da un giovane analista tedesco che vive a San Francisco, Leopold Aschenbrenner. È un ex responsabile del programma tecnico di OpenAI e fondatore di una società di investimento sull’intelligenza artificiale.

Nella sua analisi Aschenbrenner si è concentrato sui progressi del deep learning, una forma di apprendimento delle macchine più evoluta ed efficiente rispetto ad altre, basata su una particolare struttura di algoritmi ispirata alle reti di neuroni che fanno funzionare il cervello umano. Ha scritto che a causa dei progressi più recenti in questo campo «stiamo letteralmente esaurendo i parametri di riferimento», e che sia «sorprendentemente plausibile che entro il 2027 i modelli saranno in grado di svolgere il lavoro di un ricercatore o un ingegnere che si occupa di intelligenza artificiale». In altre parole, sarà l’intelligenza artificiale a migliorare sé stessa.

– Leggi anche: I bot stanno disumanizzando Internet

Entro il 2027, ha aggiunto Aschenbrenner, «anziché un chatbot avremo qualcosa che somiglierà di più a un agente, a un collega». Secondo lui il fattore più rilevante alla base della crescita delle prestazioni dell’intelligenza artificiale, oltre al miglioramento degli algoritmi, è l’aumento della capacità di calcolo, e nessuno dei due fattori è «neppure lontanamente vicino» a un punto di saturazione. Nella previsione c’è però anche un margine di incertezza dovuto al possibile esaurimento dei dati di Internet, che rappresenterebbe un serio collo di bottiglia perché per addestrare i sistemi di intelligenza artificiale sono necessarie grandi quantità di dati.

Commentando l’analisi di Aschenbrenner la fisica e divulgatrice tedesca Sabine Hossenfelder ha detto di condividere l’idea che non passerà molto tempo prima che l’intelligenza artificiale superi in astuzia gli umani, e di condividere anche che l’AI sarà in grado di migliorare da sé i propri algoritmi. Ma ha definito la previsione completamente irrealistica perché sottovaluta la questione della quantità di dati come anche quella dell’enorme quantità di energia necessarie per arrivare ai progressi descritti: in pratica macchine gestite da intere fabbriche di altri robot, in un ciclo infinito di automazione.

Entro il 2028, secondo Aschenbrenner, i sistemi più avanzati di AI richiederanno 10 gigawatt di potenza per un costo di diverse centinaia di miliardi di dollari, ed entro il 2030 avranno bisogno di 100 gigawatt per un costo di oltre mille miliardi. Per fare un confronto, la potenza totale generata in una normale centrale elettrica è dell’ordine di un gigawatt, il che implica che per realizzare la previsione di Aschenbrenner servirà aver costruito entro il 2028 dieci centrali elettriche dedicate, oltre al cluster di supercomputer, ha detto Hossenfelder. «È fattibile? Assolutamente sì. Succederà? Non prendiamoci in giro», ha aggiunto, definendo ancora più irrealistica l’ipotesi citata da Aschenbrenner di passare all’energia da fusione nucleare che Helion Energy, una startup presieduta da Altman, mira a riuscire a ottenere entro il 2028.

– Leggi anche: Le intelligenze artificiali consumano un sacco di energia

In generale molti scienziati condividono l’idea che le persone e i governi sottovalutino l’impatto che un’intelligenza artificiale generale avrebbe sulla società, indipendentemente dai tempi necessari per arrivare a svilupparla. Secondo Hossenfelder un’AGI sarebbe quasi certamente in grado di sbloccare enormi progressi nella scienza e nella tecnologia, per esempio rendendo fruibile gran parte della conoscenza scientifica che attualmente viene sprecata solo perché nessun essere umano può leggere tutto ciò che viene pubblicato. Molte intuizioni potrebbero già esistere nella letteratura esistente, senza bisogno di nuova ricerca.

Un’altra cosa che l’AGI sarebbe probabilmente in grado di fare è prevenire gli errori tipicamente commessi dal cervello umano, che di solito sono facili da individuare e correggere: errori logici, pregiudizi, vuoti di memoria e cose del genere. Prima ancora di fare effettivamente qualcosa di nuovo, in sostanza l’AGI cambierebbe il mondo già soltanto «rimuovendo questi costanti errori quotidiani».

Un recente sondaggio sul ritmo e sull’impatto dei progressi dell’AI, citato dalla rivista TIME e condotto tra 2.778 ricercatori con pubblicazioni sull’intelligenza artificiale su riviste di alto livello, mostra che la maggioranza di loro non considera imminente il momento in cui i robot saranno in grado di svolgere ogni lavoro meglio e a costi inferiori rispetto agli umani. Circa il 50 per cento del campione intervistato crede che entro il 2028 i sistemi di AI saranno in grado di fare in autonomia cose come costruire da zero un sito di elaborazione dei pagamenti, o creare una canzone indistinguibile da una nuova canzone di un musicista famoso.

Il 50 per cento crede che, a patto che la ricerca non subisca alcuna interruzione, i robot senza assistenza supereranno gli esseri umani in ogni possibile compito entro il 2047. E solo il 10 per cento lo ritiene possibile entro il 2027. Riguardo al valore dell’impatto di un’ipotetica AI con capacità sovrumane, il 68,3 per cento degli scienziati intervistati crede che i risultati positivi sarebbero più probabili rispetto a quelli negativi. Un’ampia maggioranza ritiene tuttavia che la ricerca dovrebbe comunque dare priorità al lavoro di minimizzazione dei rischi potenziali dello sviluppo dell’intelligenza artificiale con capacità sovrumane.

Ma in generale c’è molto disaccordo nel dibattito sui progressi dell’intelligenza artificiale, scrive TIME, perché le opinioni cambiano a seconda di quanto le persone considerino notevoli oppure no i progressi più recenti. Per esempio, alcuni risultati ottenuti da GPT-4, il modello linguistico più evoluto alla base del sistema di intelligenza artificiale di OpenAI, sono definiti da un gruppo di ricercatori di Microsoft e di Google le prime «tracce» di un’intelligenza artificiale generale. Ma secondo il filosofo statunitense Hubert Dreyfus la storia delle valutazioni dell’evoluzione dell’intelligenza artificiale è fatta di piccoli successi costantemente celebrati come grandi progressi: «come affermare che la prima scimmia che si arrampicò su un albero stesse facendo progressi verso l’allunaggio».

– Leggi anche: I robot sono al tempo stesso troppo intelligenti e troppo stupidi

Il disaccordo sembra riflettere infine idee radicalmente diverse su quali siano le differenze tra l’intelligenza umana e quella artificiale, e se e quanto siano variabili anche a seconda del campo di applicazione di volta in volta preso in considerazione. Per molte persone il fatto che i robot possano arrivare a generare output del tutto equivalenti a quelli umani, sul lungo termine o anche prima, non implica necessariamente che quei robot penserebbero come un essere umano.

Altre persone obiettano che questa differenza sia poco rilevante in termini economici o di produzione industriale, cioè quelli più spesso utilizzati per descrivere certi scenari in cui i robot sono considerati un rischio di riduzione delle opportunità di lavoro per gli umani, non una possibile estensione di quelle opportunità o uno strumento per migliorare le attuali condizioni di lavoro.

L’idea secondo cui la capacità di emulazione del comportamento umano non implichi una capacità di pensiero è inoltre un argomento complesso e molto scivoloso, da sempre dibattuto nella tradizione filosofica occidentale, dove è associato principalmente al problema della coscienza: quali organismi o sistemi fisici – umani e non – ne siano provvisti e quali no, e sulla base di cosa sia possibile stabilirlo.

Molte persone considerano insensato supporre che un sistema di intelligenza artificiale possa diventare pensante a forza di emulare gli umani. Sarebbe un po’ come aspettarsi che l’attore Russell Crowe diventi via via più abile nella teoria dei giochi a forza di interpretare il ruolo del matematico John Nash come nel film del 2001 A Beautiful Mind, scrissero nel 2023 Matthew Barnett e Tamay Besiroglu, due ricercatori di Epoch AI, un istituto di ricerca sull’intelligenza artificiale finanziato da un ente non profit. Ma questa analogia, secondo loro, si basa su un’idea fuorviante di come funzionino i modelli linguistici.

– Leggi anche: Sceglieremmo un’esistenza finta ma piacevole, se potessimo?

A differenza di Crowe con Nash i modelli linguistici non stanno soltanto imparando a emulare superficialmente le persone, scrissero Barnett e Besiroglu, ma «stanno anche acquisendo gradualmente la capacità di eseguire ragionamenti, come indicato da quasi tutti i parametri che siamo stati finora in grado di ideare» per misurarla. GPT-4 è riuscito a ottenere punteggi elevati nel Massive Multitask Language Understanding (MMLU), un test sviluppato nel 2020 per valutare la capacità di comprensione dei modelli linguistici di grandi dimensioni, basato su 57 materie universitarie, tra cui matematica, filosofia, giurisprudenza e medicina.

Per estendere l’analogia, aggiunsero Barnett e Besiroglu, si potrebbe ipotizzare che a un certo punto le persone siano interessate a valutare non solo la capacità di Crowe di interpretare Nash ma anche quella di scrivere articoli simili a quelli di Nash. Se scoprissimo che sta gradualmente migliorando in quel compito, anche dopo un attento esame, sarebbe ragionevole supporre che stia effettivamente imparando gradualmente la teoria dei giochi. E lo penseremmo, fondamentalmente, perché per scrivere un articolo come quelli di Nash è utile saperla, la teoria dei giochi.

La prospettiva assunta da Barnett e Besiroglu è simile a un approccio teorico molto discusso, noto in filosofia della mente come emergentismo. Nel loro esempio il ragionamento è descritto come una proprietà emergente della macchina, più o meno allo stesso modo in cui i fenomeni mentali sono descritti nell’emergentismo come proprietà emergenti del cervello umano: una sorta di epifenomeni.

– Leggi anche: Si fa presto a dire test di Turing

La definizione di ragionamento sottintesa da esperti come Barnett e Besiroglu è contestata da altri scienziati che segnalano alcuni limiti specifici mostrati dai sistemi di intelligenza artificiale, se con ragionamento intendiamo anche capacità di astrazione, cioè di ragionare non solo su esempi particolari. Diversi studi citati dall’informatica statunitense Melanie Mitchell in un articolo del 2023 sulla rivista Science mostrano che i modelli linguistici di grandi dimensioni (LLM) eccellono nella soluzione di problemi che coinvolgono parole e nozioni che compaiono più frequentemente nei set di dati utilizzati per addestrarli.

Questo, secondo Mitchell, suggerisce che i modelli non siano in grado di eseguire un ragionamento astratto, ma che i risultati si basino su una sorta di «memorizzazione», cioè su una capacità di correlare a determinati input determinati output appresi durante l’addestramento. Nel 2023, a conferma di questa ipotesi, il ricercatore della Cornell University Horace He pubblicò su X i risultati di alcuni test che mostravano che GPT-4 aveva risolto 10 problemi su 10 pubblicati prima del 2021 (l’anno più recente nel set di dati utilizzati per l’addestramento) e zero problemi su 10 pubblicati dopo il 2021.

Si potrebbe obiettare, scrisse Mitchell, che nel ragionamento anche gli esseri umani ricorrono alla memorizzazione e alla correlazione tra stimoli noti e stimoli nuovi, come peraltro dimostrano molti studi di psicologia sulla maggiore capacità di ragionare su situazioni familiari che non familiari. Ma è anche noto che almeno in alcuni casi gli esseri umani sono capaci di ragionamento astratto indipendente dal contenuto e in situazioni completamente nuove, se hanno a disposizione tempo e incentivi per farlo. Cosa che al momento, aggiunse Mitchell, non è ancora stata dimostrato per i modelli linguistici di grandi dimensioni.

– Leggi anche: Anche le teorie bizzarre possono essere utili

Anche ammesso che sia possibile un giorno arrivare ad attribuire inequivocabilmente ai sistemi di intelligenza artificiale una capacità misurabile di ragionamento, resterebbero le perplessità di chi non considera le differenze tra l’intelligenza umana e quella artificiale una questione di capacità misurabili.

A luglio il noto scrittore e columnist statunitense David Brooks scrisse sul New York Times che molte paure riguardo all’intelligenza artificiale sembrano basate su un’idea molto «povera» di cosa sia umano e su una «sciatta» attribuzione parallela di caratteristiche umane ai bot. È chiaro che se tutto si riduce a elaborazione di informazioni e algoritmi, scrisse, «certamente le macchine alla fine ci supereranno».

Brooks scrisse di condividere piuttosto l’idea «che l’AI sia un’alleata e non un’antagonista: un diverso tipo di intelligenza, più potente di noi in alcuni modi, ma più ristretta». Sta già cambiando il modo in cui lavoriamo, gestendo al posto nostro compiti lunghi e detestabili o operazioni burocratiche, per esempio. E servirà anche a prendere decisioni più consapevoli, sebbene esistano dei rischi di utilizzi negativi, come per ogni altro strumento tecnologico. Ma alla fine, concluse Brooks, il compito dell’intelligenza artificiale sarà «ricordarci chi siamo rivelando ciò che non può fare».