Da dove viene e cosa è diventata OpenAI

L'azienda statunitense dietro a ChatGPT doveva limitare i possibili rischi delle intelligenze artificiali: ora è lei a preoccupare gli altri

di Pietro Minto

(AP Photo/Richard Drew, File)
(AP Photo/Richard Drew, File)
Caricamento player

Nel novembre del 2022 l’azienda statunitense OpenAI ha presentato ChatGPT, un’intelligenza artificiale diversa da tutte le altre che riesce a simulare conversazioni umane con gli utenti e che ha avuto un successo mediatico enorme. Come OpenAI sia arrivata a questo momento non è chiarissimo: quello che si sa è che nel giro di poco tempo Sam Altman, co-fondatore e amministratore delegato di OpenAI, ordinò di aprire ChatGPT al pubblico con una certa urgenza. Tutto avvenne talmente velocemente che il programma che fu presentato si basava su una tecnologia sofisticata ma che era già vecchia di due anni, il modello linguistico GPT-3, mentre buona parte dell’azienda era già al lavoro su GPT-4, l’ultima versione che poi è uscita questo mese.

Nonostante questo, nella sua prima versione, ChatGPT arrivò a un milione di utenti in appena cinque giorni, dimostrando che l’intuizione di Altman era corretta e affermando in un certo senso il primato di OpenAI nella ricerca e nello sviluppo sull’intelligenza artificiale. La storia di come OpenAI sia giunta a questo punto però è molto particolare e a tratti controversa: nata come organizzazione senza scopo di lucro, nel giro di pochi anni e dopo un’alleanza con Microsoft sarebbe infatti arrivata – secondo molti commentatori – a stravolgere la missione originale con cui è stata fondata, tra gli altri, da Elon Musk, che ora è il primo a criticarne l’approccio.

OpenAI nacque nel 2015 da un’idea di Sam Altman, noto investitore della Silicon Valley e presidente di Y Combinator, influente acceleratore di startup californiano, ed Elon Musk, capo di Tesla e altre aziende tecnologiche (come SpaceX e, recentemente, Twitter). Entrambi condividevano una preoccupazione nei confronti delle intelligenze artificiali. Già nel 2014, a un incontro organizzato dal MIT di Boston, Musk le aveva definite «la più grande minaccia alla nostra sopravvivenza», dicendosi a favore di «una qualche supervisione regolamentare, magari a livello nazionale e internazionale». In particolare, Musk si disse preoccupato dallo strapotere raggiunto nella ricerca nel settore da una specifica azienda di cui non faceva il nome.

Nel dicembre del 2015, Musk e Altman co-fondarono OpenAI, un’organizzazione senza fini di lucro con l’obiettivo di promuovere e sviluppare «un’intelligenza artificiale amichevole» («friendly AI») nei confronti dell’umanità.

Pochi mesi dopo la fondazione della società, Musk partecipò a un evento pubblico organizzato dal sito di tecnologia Recode, nel quale il noto giornalista di settore Walt Mossberg gli chiese di precisare quale azienda in particolare lo preoccupasse: «Non farò nomi ma ce n’è solo una», rispose. Successivamente però Musk rivelò che l’azienda che, secondo lui, stava acquisendo un vantaggio competitivo sul settore era Google, o meglio DeepMind, una società britannica che Google aveva acquisito nel 2014.

La presenza di Google (più precisamente Alphabet, il gruppo di cui fa parte l’azienda) nei pensieri e nei timori di Musk è un punto importante per capire gli eventi che hanno poi condizionato l’evoluzione di OpenAI. Per i primi anni di vita della non profit, Musk continuò a trattare le intelligenze artificiali con un misto di stupore e timore reverenziale, sostenendo che l’umanità stesse «evocando un demone» e che OpenAI sarebbe stata l’unica in grado di evitare incidenti nel percorso.

Il 2018 fu un anno di svolta per OpenAI: Altman cementò il suo ruolo di rilievo all’interno della società e Musk fu sempre più distratto da Tesla. Nei primi mesi dell’anno, secondo un’informata ricostruzione del sito Semafor, Musk si lamentò con Altman perché la loro azienda era rimasta molto indietro rispetto a Google: propose quindi di prendere il controllo dell’operazione ma Altman e altri fondatori (nonché molti dipendenti) rifiutarono l’offerta di Musk, che quindi uscì dall’azienda. OpenAI spiegò questa mossa in termini di conflitto d’interessi: «Poiché Tesla continua a concentrarsi sempre di più sulle intelligenze artificiali, questo eliminerà il rischio di futuri conflitti per Elon». (A dire il vero, però, Tesla aveva assunto una delle migliori menti di OpenAI, Andrej Karpathy, già l’anno prima dello scontro tra Musk e Altman).

L’uscita di scena di Musk comportò anche la scomparsa dei fondi necessari all’azienda, di cui Musk aveva versato solo un decimo del miliardo di dollari promesso. OpenAI si ritrovò da sola a dover coprire i costi astronomici necessari all’allenamento delle intelligenze artificiali, per cui sono necessarie enormi potenze computazionali e quindi infrastrutture ed energia.

Prima che Musk lasciasse OpenAI, Google Brain, una divisione di Google dedicata alle intelligenze artificiali, aveva presentato una tecnologia innovativa chiamata Transformer, che prevedeva che i modelli linguistici potessero migliorarsi con pochissimo intervento umano, utilizzando enormi moli di dati, testi e immagini. La presentazione di Transformer da parte di Google fu l’evento che concretizzò i timori di Musk di rimanere indietro, accelerandone l’uscita da OpenAI e costringendo l’azienda a cambiare strategia e adottare una nuova tecnologia, che ancora oggi è essenziale al funzionamento di ChatGPT (la sigla che ha dato il nome al modello linguistico GPT sta proprio per Generative Pre-trained Transformer, a conferma dell’importanza della scoperta di Google). Per farlo, però, erano necessari grandi investimenti sul cosiddetto training, cioè l’acquisizione di grandi archivi di dati, testi e materiali, e la loro analisi da parte di sistemi informatici sempre più complessi. Transformer fu quindi l’inizio di un lungo effetto domino che portò OpenAI all’alleanza strategica con Microsoft siglata nel 2022.

Al fine di trovare nuovi fondi, nel marzo del 2019 OpenAI annunciò la creazione di una divisione dell’azienda chiamata OpenAI LP, presentata come «un ibrido tra una non profit e un’azienda a scopo di lucro, quello che noi chiamiamo azienda a “profitto massimo”» (nella quale, si legge nel sito dell’azienda, «investitori e dipendenti possono ottenere un profitto massimo se riusciamo nella nostra missione», cosa che permette a OpenAI LP di comportarsi in modo simile a una startup). Nel 2019 OpenAI firmò anche un accordo del valore di un miliardo di dollari con Microsoft, anzi con Azure, la divisione dell’azienda che si occupa di infrastruttura web e che da allora fornisce la potenza di calcolo necessaria alle IA. Fu l’inizio di un rapporto che dopo il successo di ChatGPT è diventato un «accordo multimiliardario», e che ha portato Edge, il browser di Microsoft, a incorporare nella sua ultima versione le intelligenze artificiali di OpenAI.

Secondo alcuni, però, l’alleanza Microsoft-OpenAI rappresenta l’ennesima prova di come la missione originale della società sia stata dimenticata, prima ancora che tradita. Negli ultimi mesi anche Musk ha sottolineato questo aspetto problematico, notando come un’azienda non profit che doveva servire da contrappeso a Google sia diventata un’azienda il cui valore di mercato è stimato attorno ai 30 miliardi di dollari ed è «a tutti gli effetti controllata da Microsoft».

L’influenza di Microsoft potrebbe rivelarsi un problema viste anche le crescenti e diffuse preoccupazioni riguardo alle intelligenze artificiali, le loro capacità e l’effetto che potrebbero avere nel campo della disinformazione. Timori che questa settimana hanno spinto alcuni dei più importanti esperti del settore a richiedere uno stop temporaneo al loro sviluppo, in una lettera aperta scritta dal Future of Life Institute, un’organizzazione che si occupa di tecnologia e del suo impatto sul futuro dell’umanità: in poco tempo ha avuto più di mille firmatari, tra cui molti esperti del settore (oltre allo stesso Musk). La proposta richiede un fermo collettivo di sei mesi per i sistemi di AI «più potenti di GPT-4» per permettere ai loro produttori di concentrarsi sulla loro sicurezza e affidabilità.

A rendere il rapporto di OpenAI con le sue stesse innovazioni così problematico è il fatto che lo stesso Altman sembra concorde nel ritenere queste tecnologie potenzialmente pericolose: l’imprenditore ha dichiarato nelle scorse settimane di avere «un po’ di paura» delle intelligenze artificiali, comprese quelle di OpenAI. Una posizione che sembra scontrarsi con il ritmo frenetico con cui l’azienda sta presentando nuovi servizi legati a GPT-4, e che non convince tutti: «Perché non collaborare con esperti di etica delle IA e con i legislatori prima di rendere disponibili questi modelli, in modo da dare alla società il tempo di creare le giuste protezioni?» si è chiesta Carissa Véliz, professoressa di filosofia ed etica all’Università di Oxford.

I dubbi sulla tenuta etico-morale dell’azienda sono aggravati dal fatto che OpenAI è nata espressamente con l’obiettivo di avere un’influenza diversa nel settore, fatta di collaborazione, cautela e apertura accademica alle ricerche proprie e altrui, col fine di evitare sviluppi incontrollati e sregolati delle intelligenze artificiali. A ben guardare, però, è da tempo che circolano dubbi riguardo alle vere intenzioni della società: quando nel 2018 OpenAI pubblicò il suo atto costitutivo, lo fece anche per ribadire che, nonostante i grandi cambiamenti in corso all’epoca, la società aveva sempre a cuore la propria missione originale di «assicurarsi che l’intelligenza artificiale generale (AGI) – per la quale intendiamo sistemi altamente autonomi che forniscono performance migliori degli umani nella maggior parte dei lavori economicamente più importanti – sia di beneficio per tutta l’umanità».

Tra i princìpi previsti dall’atto c’erano l’importanza della «distribuzione dei benefici» al fine di evitare accentramenti di potere, la «sicurezza a lungo termine», la «leadership tecnica» nel settore e «l’orientamento alla cooperazione», ovvero la disponibilità a collaborare con altri centri di ricerca e istituzioni del settore. Secondo molte personalità del settore le recenti azioni di OpenAI hanno però tradito buona parte di queste promesse: il riferimento è soprattutto al rilascio del modello linguistico GPT-4, avvenuto lo scorso marzo, che si è rivelato essere un sistema chiuso, nonostante lo spirito «open» che ha da sempre ispirato l’azienda – e il suo stesso nome. A colpire è stata soprattutto l’assenza di informazioni riguardo ai contenuti sui quali il nuovo modello linguistico è stato allenato e formato: le dimensioni dell’archivio, la provenienza dei documenti e la loro natura. «Penso che possiamo dire addio a “Open”AI: il documento di 90 pagine che presenta GPT-4 dichiara con orgoglio che non ci sarà alcuna informazione riguardo ai contenuti del training set», ha scritto su Twitter Ben Schmidt della società del settore Nomic AI.

Per anni OpenAI aveva pubblicizzato un approccio aperto e accademico alla materia per evitare che una singola azienda sviluppasse un’intelligenza artificiale così potente da poter essere considerata un’AGI, di cui potrebbe perdere il controllo o potrebbe usare in modo poco «amichevole», per usare il lessico caro all’azienda. Questo timore si era tradotto in un approccio open-source (in cui il codice sorgente è pubblico, disponibile a tutti e aperto a eventuali modifiche da parte della community), che ha contraddistinto i primi anni dell’azienda ma sul quale sembra aver cambiato drasticamente idea: «Avevamo sbagliato» ha dichiarato Ilya Sutskever, co-fondatore di OpenAI, al sito The Verge, aggiungendo che «se si pensa che una IA – o un’AGI – possa diventare estremamente, incredibilmente potente, allora non ha senso farla open source».