Elon Musk (Bill Pugliano/Getty Images)

Elon Musk vuole salvarci dalle intelligenze artificiali

Il capo di SpaceX e Tesla teme che un giorno le AI possano diventare troppo potenti e che possano distruggere l'umanità: per questo prende precauzioni (a modo suo)

nativi-header-foglie

Elon Musk (Bill Pugliano/Getty Images)

Da una persona che ambisce a far colonizzare Marte all’umanità, tra le altre cose, non ci si aspetterebbe scetticismo sul futuro delle intelligenze artificiali (AI) e il timore che potrebbero essere «la più grande minaccia all’esistenza dell’umanità». Invece Elon Musk, l’amministratore delegato di SpaceX e di Tesla, è abbastanza preoccupato per ciò che potrebbero diventare le AI se mai dovessimo perdere il controllo su di loro. Ha parlato per la prima volta dei suoi timori nei confronti delle AI nel 2014, durante un discorso tenuto al Massachusetts Institute of Technology (MIT) e poi ha cominciato quella che i suoi critici hanno chiamato la «crociata di Elon» anche nei fatti: nel 2015 ha fondato, insieme a Sam Altman, presidente dell’acceleratore di startup Y Combinator (che tra le altre cose ha permesso a Airbnb e Dropbox di diventare quello che sono), l’organizzazione non governativa OpenAI il cui scopo è sviluppare un sistema di AI open source. In pratica ha deciso di condurre la sua battaglia “contro” le AI provando a sorpassare le aziende che stanno lavorando per svilupparle sempre di più.

Non si sa benissimo cosa stia facendo OpenAI, ma si sa che ha messo in piedi Universe, una specie di palestra virtuale per intelligenze artificiali in cui sono messe a disposizione applicazioni, videogiochi, browser e siti con cui le AI possono interagire per sviluppare le loro capacità. Universe dovrebbe essere utile per costruire una AI con una “intelligenza generale”, cioè capace di fare tante cose diverse come un essere umano e non di compiere un’unica attività, come ad esempio giocare a go nel caso dell’intelligenza artificiale di Google AlphaGo. Proprio il fatto che Universe sia accessibile a tutti però espone OpenAI a critiche simili a quelle che Musk ha fatto alle aziende che sviluppano sistemi di AI: programmatori intenzionati ad allenare un sistema di intelligenza artificiale per fare qualcosa di male potrebbero approfittare della piattaforma messa a disposizione da OpenAI.

OpenAI ha anche un progetto di ricerca per insegnare alle AI a capire bene il linguaggio umano – una cosa su cui siamo ancora indietro, contrariamente al campo del riconoscimento delle immagini – usando Reddit. Le conversazioni sul social network sono usate per fare capire alle AI come gli esseri umani comunicano tra loro. Il rischio in questo caso è sul modo usato dai ricercatori per evitare che le AI adottino il modo di fare e le argomentazioni dei numerosi utenti di Reddit che esprimono opinioni razziste o offensive in vari modi; una cosa simile era successa all’account di Twitter di Microsoft Tay, che rispondeva automaticamente alle domande che gli venivano fatte, e a causa della “cattiva influenza” subita da molti utenti era finita a scrivere solo cose razziste.

Prima che Google acquistasse per 650 milioni di dollari DeepMind, una startup britannica che si occupa di intelligenza artificiale, nel 2014 Musk era uno dei suoi investitori. In una lunga intervista a Vanity Fair ha spiegato che era interessato a sapere cosa si stesse sviluppando nel campo dell’AI, non ad avere un ritorno economico dal successo di DeepMind. Nella sua biografia scritta dal giornalista di Bloomberg Ashlee Vance, Musk spiega di essere molto preoccupato che Google faccia danni senza volerlo nel campo dell’AI, magari producendo robot intelligenti in grado di distruggere l’umanità. OpenAI è stata fondata per provare a evitare che succeda qualcosa del genere: Musk pensa che sia meglio che la tecnologia dell’intelligenza artificiale sia messa a disposizione di tutto il mondo invece che sotto il controllo di un’unica società della Silicon Valley.

Larry Page, amministratore delegato di Google e amico di Musk, è uno di quelli che pensa che le macchine siano tanto buone e tanto cattive quanto le persone che le progettano. Mark Zuckerberg, fondatore e amministratore delegato di Facebook, un’altra azienda che fa ricerca sulle AI, pensa che i timori di Musk siano «isterici».

Musk comunque non è il solo famoso esperto di tecnologia che teme le conseguenze di uno sviluppo sconsiderato delle AI: Bill Gates ha parlato dei rischi legati alle AI soprattutto in relazione alle possibili perdite di posti di lavoro e l’astrofisico Stephen Hawking ha detto che le AI potrebbero essere la cosa peggiore mai capitata all’umanità. Né Musk, né Gates o Hawking sono contrari alla ricerca sulle intelligenze artificiali: pensano però che sia necessario ragionare bene sulla questione e fare attenzione a non commettere errori. Nel novembre 2016 Microsoft ha annunciato una collaborazione con OpenAI che prevede che l’organizzazione fondata da Musk e Altman possa usare le più recenti tecnologie prodotte da Microsoft per i suoi esperimenti in cambio dell’utilizzo della sua piattaforma cloud Azure.

Anche Peter Thiel, il miliardario che insieme a Musk ha fondato PayPal ed è stato tra i primi investitori di Facebook, condivide i timori sulle AI e per questo ha finanziato OpenAI: tuttavia ritiene che l’iniziativa di Musk e le sue critiche all’AI potrebbero accelerare la ricerca sull’intelligenza artificiale facendo crescere l’interesse sul tema. Tra le altre persone famose per le loro posizioni critiche sull’AI c’è anche il filosofo di Oxford Nick Bostrom, che si occupa di tutte le questioni etiche relative allo sviluppo e all’introduzione delle AI: il suo saggio Superintelligence è stato molto apprezzato da Musk.