Chi studia l’intelligenza artificiale non la fermerebbe nemmeno potendo
Sarebbe come voler smettere di ragionare, secondo esperti ed esperte di diverse materie che se ne occupano per lavoro

Il racconto dei pericoli dell’intelligenza artificiale è popolare almeno quanto quello dell’intelligenza artificiale stessa. Negli anni è stata descritta come una minaccia per l’umanità perché potrebbe causare, a seconda delle diverse prospettive: una svalutazione del valore dell’arte, una riduzione dei posti di lavoro, un’incapacità umana di capire se foto e video sono autentici, e altre situazioni critiche.
Ma tra chi studia l’intelligenza artificiale nessun rischio noto o ignoto sarebbe una ragione valida per smettere di svilupparla, ammesso sia possibile. Non avrebbe senso farlo anche ragionando per assurdo, secondo un gruppo di studiose e studiosi italiani che da anni fanno ricerca in campo internazionale sulle implicazioni e applicazioni dell’AI da prospettive diverse: scienza dei dati, fisica, diritto, etica. A ciascuna e ciascuno di loro il Post ha rivolto questa domanda:
«Puoi fermare ora l’intelligenza artificiale. Sparisce dal mondo per sempre, con tutte le sue evoluzioni. Lo fai?»
Nessuna persona ha risposto «sì, la fermerei»; tutte hanno risposto «non la fermerei», segnalando però la necessità di comprenderla, ripensarla e regolamentarla.
«Non lo farei non per entusiasmo tecnofilo o per un’adesione fideistica al progresso, ma perché l’intelligenza artificiale, oggi, non è affatto un’intelligenza. È una forma di ingegneria statistica applicata al linguaggio, uno specchio addestrato sulle nostre parole che ci restituisce pattern plausibili, non verità, né comprensione del mondo», dice Walter Quattrociocchi, professore di informatica all’Università La Sapienza di Roma e direttore del Center for Data Science and Complexity for Society. «Il problema non è l’AI in sé, ma la narrazione che la circonda, che scambia correlazione per comprensione, output per giudizio, eloquenza per competenza».
È un’idea condivisa anche da Mariarosaria Taddeo, filosofa e professoressa di etica digitale e tecnologie di difesa all’Università di Oxford. «L’AI è un motore sintattico, che elabora simboli senza capirne il significato e secondo regole imposte da un/a programmatore/programmatrice. Non è intelligente, si comporta come se lo fosse», dice Taddeo.
L’equivoco secondo lei è favorito anche da un frequente uso metaforico e generico del linguaggio. Si usa la parola “allucinazioni”, per esempio, per definire un certo tipo di errori e imprecisioni delle intelligenze artificiali generative. E alcuni chatbot basati su modelli linguistici di grandi dimensioni (LLM) scrivono reasoning (“sto ragionando”) o thinking (“sto pensando”) mentre elaborano le loro risposte. Ma attribuire un’intelligenza sulla base di questi segni sarebbe «come dire che quando la tv va in buffer mentre si cambia canale stia decidendo criticamente se vale la pena guardare la trasmissione del canale che stiamo scegliendo».
Su questa questione la pensa diversamente Pierluigi Contucci, professore di fisica matematica all’Università di Bologna, esperto di meccanica statistica dei sistemi complessi e delle sue applicazioni alle scienze sociali ed economiche. Nemmeno lui fermerebbe l’AI, ma uno dei motivi per cui non lo farebbe è proprio il fatto che, pur non essendo «una mente né una coscienza, mette in discussione, nel profondo, il significato stesso di intelligenza. E non lo fa in astratto, ma con strumenti che risolvono problemi, apprendono strutture, imitano linguaggi, generano innovazione».
Secondo Contucci l’AI è «una forma di intelligenza aliena, non umana ma partorita dall’umano», e che «proprio perché diversa, ci costringe a ripensare ciò che intendiamo per comprensione, apprendimento, creatività». È «il nostro principale esperimento sul concetto di intelligenza, un test su larga scala, fatto di matematica, ingegneria, dati e interpretazioni filosofiche», e «non riconoscere in questo esperimento una forma, imperfetta ma reale, di intelligenza, significherebbe tornare a una definizione troppo ristretta e autoreferenziale, più difensiva che esplorativa».
Anche secondo Quattrociocchi fermare l’AI significherebbe «rinunciare non solo a una leva cognitiva, ma anche a un’occasione irripetibile per riflettere sulla natura stessa del pensiero, del linguaggio e della conoscenza». E il rischio principale «non è che le macchine diventino intelligenti, ma che noi smettiamo di esserlo».
In generale, l’opinione che l’intelligenza artificiale sia spesso fraintesa è abbastanza condivisa. «Come sempre accade per le novità scientifiche e tecnologiche, le sue applicazioni possono essere assai pericolose, e indubbiamente la narrazione oggi è concentrata su questi aspetti, più che sugli aspetti positivi», dice Giusella Finocchiaro, professoressa ordinaria di diritto privato e di diritto di Internet all’Università di Bologna. «Credo che l’intelligenza artificiale possa portare grandi vantaggi: basti pensare alla ricerca scientifica in ambito sanitario e alla medicina personalizzata. Anche se avessi una bacchetta magica, non la fermerei».
Fino a qualche anno fa non era del tutto assurdo per chi si occupava di intelligenza artificiale riflettere sull’ipotesi di fermarla o, quantomeno, sulla necessità di definire delle regole condivise prima di continuare a svilupparla. In una lettera aperta pubblicata nel 2023, un gruppo di scienziati e dirigenti di grandi aziende tecnologiche sottoscrisse questo messaggio: «attenuare il rischio di estinzione causato dall’intelligenza artificiale dovrebbe essere una priorità mondiale, insieme ad altri rischi su vasta scala per la società come le pandemie e le guerre nucleari».
Tra i firmatari c’erano gli informatici Geoffrey Hinton (premio Nobel per la Fisica nel 2024) e Yoshua Bengio, due dei più influenti ricercatori impegnati nello sviluppo dei sistemi di apprendimento automatico, alla base della rapida evoluzione recente delle AI. Bengio era peraltro tra i firmatari di un’altra lettera aperta, che chiedeva una sospensione di almeno sei mesi nell’addestramento dei sistemi di AI. Appelli e segnalazioni di quel tipo, provenienti da fonti autorevoli e informate, fornirono ai media ulteriori spunti per descrivere scenari catastrofici.
Più che stimolare fantasie apocalittiche, uno dei principali obiettivi di quelle richieste era probabilmente sollecitare una regolamentazione comune del settore: un punto su cui diverse studiose e studiosi sentiti dal Post sono comunque d’accordo. «Parlare di AI responsabile non significa chiedere all’AI di essere responsabile, ma di imporre responsabilità alle aziende che la producono, e agli enti pubblici e privati che la utilizzano», dice Ivana Bartoletti, esperta di privacy, etica e governance dell’AI e delle nuove tecnologie.
Secondo lei, «le fantasie alla Terminator e le illusioni di un’AI che può risolvere ogni problema distraggono da ciò che conta davvero: il rispetto della privacy, la libertà di informazione e la dignità umana». Disciplinare certi utilizzi ed effetti dell’AI, vietando alcune pratiche, è una necessità condivisa anche da Finocchiaro. La parte difficile è tutelare i diritti fondamentali della persona senza bloccare l’innovazione, dice: «è una grande sfida etico-giuridica, resa ancora più difficile dalla necessità di un coordinamento internazionale».
Fermare l’AI, per chi la studia da anni, significherebbe soprattutto rinunciare a porsi domande fondamentali sulla società che vogliamo essere. «L’AI è una forma della nostra relazione con la conoscenza, con l’organizzazione del lavoro, con l’idea di futuro», dice Diletta Huyskes, ricercatrice in etica delle tecnologie al PhilTech dell’Università di Milano, ed esperta di impatti sociali negativi dell’AI. Sospenderla non significherebbe affermare un mondo più giusto o più umano, secondo lei, perché «l’ingiustizia, la sorveglianza, l’inefficienza e la disuguaglianza non sono nate con l’AI, e certo non sparirebbero con la sua cancellazione».
È un punto segnalato anche da Contucci. Essere consapevoli dei rischi di «sorveglianza pervasiva, manipolazione dell’opinione pubblica, amplificazione delle diseguaglianze, militarizzazione della conoscenza» che l’AI comporta non vuol dire che sia opportuno fermarla. Sarebbe inutile farlo, dice Contucci, perché «uno stop in un luogo del mondo causa una accelerazione da un’altra parte» e «fermare l’AI unilateralmente significherebbe semplicemente cedere il passo a qualcun altro».
La consapevolezza dei rischi e delle opportunità pone quindi, soprattutto, una questione di responsabilità. «Non voglio fermare l’AI, ma fermare – o meglio, trasformare – molti dei modi in cui oggi viene immaginata, costruita, venduta e applicata», dice Huyskes, perché «se fosse nelle mani giuste, se fosse progettata con cura, secondo valori condivisi e vincolata a condizioni chiare, potrebbe rappresentare una vera rivoluzione».
Non è detto che fermare l’AI sia peraltro una scelta eticamente preferibile. Cogliere l’opportunità di usarla per migliorare le condizioni del pianeta e dei suoi abitanti, e identificare tempestivamente i rischi in modo da evitarli o mitigarli, dice Taddeo, richiede «molta intelligenza umana e molto impegno». Fermare l’AI vorrebbe dire che «come genere umano rifiutiamo di impegnarci in questo senso. Chi spiegherebbe ai nostri nipoti tra 50 o 60 anni che avevamo il modo di capire e quindi intervenire positivamente sui meccanismi alla base del cambiamento climatico o delle malattie e non lo abbiamo fatto?».
C’è infine un’altra ragione, segnalata da Contucci, per cui la scelta di fermare l’AI non sarebbe possibile nemmeno volendo. «Non siamo più i soli artefici di questa storia. L’intelligenza artificiale non è un oggetto esterno che possiamo spegnere con un interruttore; è già parte del nostro linguaggio, della nostra economia, delle nostre relazioni», dice. Fermarla implicherebbe «non solo una rinuncia tecnologica, ma una forma di rimozione collettiva, una negazione del presente. Sarebbe un gesto di paura, non di saggezza».
Sull’intelligenza artificiale è difficile anche solo capirsi, secondo Contucci, perché «oggi, è ciò che il motore fu per la fisica durante la rivoluzione industriale: una tecnologia potente, ancora pre-scientifica, in attesa di una teoria che la spieghi con chiarezza, rigore e principi generali». E come ogni tecnologia nata prima della propria scienza, anche l’AI comporta il rischio «che l’uso preceda il senso, che l’efficienza prevalga sulla saggezza». Più che chiedersi se fermarla, occorre chiedersi «come guidarla, comprenderla e renderla parte di un futuro che non sia disumano», obiettivo che richiede esattamente «ciò che la scienza e la cultura europea hanno sempre cercato: equilibrio tra potere e responsabilità, tra libertà e limite, tra invenzione e coscienza».