Di Sam Altman non si fida prima di tutto chi ci lavora assieme
Un’inchiesta del New Yorker descrive una delle persone più influenti nel campo dell’intelligenza artificiale come un bugiardo cronico

Anthropic e OpenAI sono due delle principali società al mondo nel settore dell’intelligenza artificiale. A marzo si era molto discusso della decisione della prima di negare al dipartimento della Difesa statunitense l’utilizzo illimitato delle sue tecnologie per scopi militari e di sorveglianza di massa. Sam Altman, cofondatore e capo di OpenAI, la società di ChatGPT, aveva difeso Anthropic scrivendo in una nota interna di condividere quei limiti etici. Ma da almeno due giorni era segretamente in trattative con la Difesa, per un accordo da 50 miliardi di dollari che ha poi portato all’integrazione delle tecnologie di OpenAI nelle infrastrutture militari statunitensi.
Questo comportamento di Altman è descritto dal New Yorker come una delle molte prove di una sua attitudine al doppio gioco, in una lunga inchiesta che lo descrive sostanzialmente come un bugiardo cronico. Si basa su interviste a oltre cento suoi collaboratori ed ex collaboratori, dirigenti ed ex dirigenti di OpenAI, raccolte in 18 mesi, e sulla consultazione di conversazioni e documenti privati. Gli autori sono i giornalisti Andrew Marantz e Ronan Farrow, tra i più stimati della rivista. Farrow è noto in particolare per le sue inchieste sui casi di molestie sessuali a Hollywood, per cui vinse un premio Pulitzer nel 2018, e per il sostegno alle accuse di molestie rivolte dalla sorella Dylan Farrow a loro padre, il regista Woody Allen.
Anche Altman ha ricevuto accuse di questo tipo. Dal 2025 è in causa con sua sorella Annie Altman, che nel 2021 lo aveva accusato di averla molestata sessualmente da quando lui aveva dodici anni e lei tre. Altman, i suoi fratelli e sua madre negano da tempo questa versione dei fatti, da Annie Altman confermata e ribadita al New Yorker, che però scrive di non essere stato in grado di verificarla. In generale, queste accuse sono definite «estreme» e citate in un paragrafo che ne raccoglie altre prive di prove e spesso amplificate dai rivali in affari di Altman.
Sono invece circostanziate quelle che riguardano la sua attività da capo senza scrupoli di OpenAI, da cui emerge il profilo di un uomo disposto a mentire sistematicamente pur di esercitare la propria influenza. «Non si attiene alla verità. Possiede due caratteristiche che non si riscontrano quasi mai nella stessa persona: un forte desiderio di compiacere gli altri, di essere apprezzato in ogni interazione, e una quasi sociopatica indifferenza per le conseguenze che potrebbero derivare dall’ingannare qualcuno», ha detto al New Yorker un membro del consiglio di amministrazione di OpenAI.

Sam Altman, amministratore delegato di OpenAI, durante un’audizione al Senato per discutere delle azioni da intraprendere per favorire la crescita delle grandi aziende tecnologiche statunitensi, a Washington D.C., l’8 maggio 2025 (Nathan Howard/Bloomberg/Getty Images)
L’articolo comincia dal racconto dell’evento informalmente noto all’interno dell’azienda come «the blip» (“la deviazione”): il licenziamento e la riassunzione di Altman da amministratore delegato, avvenuti in cinque giorni a novembre del 2023. Già all’epoca molti analisti interpretarono la vicenda come una prova schiacciante dell’influenza di Altman, il cui licenziamento imprevisto portò a un ammutinamento di gran parte dei dipendenti dell’azienda (700 su 770) e alla successiva rimozione di quasi tutto il consiglio che lo aveva licenziato.
– Leggi anche: La questione tra il Pentagono e le aziende di intelligenza artificiale, dall’inizio
Fondata nel 2015 come un’associazione non profit da Altman e altri imprenditori, tra cui Elon Musk, OpenAI si era scissa tre anni dopo in due unità distinte per mancanza di finanziamenti. Una era rimasta non profit, l’altra era diventata quasi del tutto for profit per ottenere un investimento da Microsoft (un miliardo di dollari, a cui poi se ne aggiunsero altri 12). Altman diventò il punto di riferimento di questa seconda divisione e il principale promotore della commercializzazione di prodotti come ChatGPT, con l’obiettivo di massimizzare i profitti.
L’altra unità dell’azienda era guidata dal cofondatore e responsabile scientifico Ilya Sutskever e da altri dirigenti, convinti che la ricerca dovesse essere rallentata e sottoposta a controlli più rigorosi, a causa dei rischi per l’umanità che lo sviluppo dell’AI comportava. In alcune comunicazioni private rivolte ai membri del consiglio, lette dal New Yorker, Sutskever espresse dubbi riguardo all’idoneità al loro ruolo del presidente Greg Brockman e di Altman. «Non credo che Sam sia la persona adatta a stare nella stanza dei bottoni», scrisse a uno di loro. A un altro si disse preoccupato di affidare una tecnologia rivoluzionaria a qualcuno che «dice alla gente soltanto ciò che vuole sentirsi dire».
In altri messaggi circolati all’interno dell’azienda, Altman era accusato di essere un manipolatore, di aver mentito su presunti protocolli di sicurezza implementati nelle procedure di sviluppo delle tecnologie, e di aver travisato i fatti parlando con i membri del consiglio. Alcuni di loro, tra cui l’esperta di politiche sull’AI Helen Toner e l’imprenditrice Tasha McCauley, avevano interpretato i messaggi come la conferma che non ci si potesse fidare di lui.

Sam Altman, amministratore delegato di OpenAI, stringe la mano a Larry McManus, direttore del Dipartimento per lo sviluppo economico e il turismo del Texas, presso il data center di Abilene, il 23 settembre 2025 (AP/Matt O’Brien)
Quando Altman riottenne il suo ruolo da amministratore delegato, al posto dei membri del consiglio che lo avevano licenziato ne furono nominati altri più accomodanti verso di lui, tra cui l’economista Lawrence Summers e l’ex responsabile tecnologico di Facebook Bret Taylor. Il consiglio ottenne che venisse comunque aperta un’indagine indipendente sul comportamento di Altman, che secondo sei persone vicine a chi la condusse, sentite dal New Yorker, sembrava però pensata apposta per assolverlo. Infatti non produsse alcun rapporto finale scritto, ma solo qualche resoconto orale condiviso con due membri del consiglio tra i nuovi, scelti dopo conversazioni con Altman.
Un’altra persona critica verso Altman fu Aaron Swartz, un programmatore informatico morto suicida nel 2013 e tra i suoi primi collaboratori nell’azienda di sviluppo di startup Y Combinator, di cui Altman fu presidente dal 2014 al 2019, anche dopo la fondazione di OpenAI. Poco prima di morire, Swartz disse a un amico che «non ci si può mai fidare di Sam», definendolo «un sociopatico» che «farebbe qualsiasi cosa». Secondo Paul Graham, cofondatore di Y Combinator e a lungo mentore di Altman, alla fine Altman fu allontanato perché sfiduciato dai partner dell’azienda, anche se all’epoca si parlò di una separazione consensuale. «Sam ci ha mentito per tutto il tempo», disse Graham ad alcuni suoi colleghi.
– Leggi anche: Se l’AI è una bolla, è la guerra che potrebbe farla scoppiare
Un investitore ha anche descritto al New Yorker come un fatto noto che Altman facesse «investimenti personali, in modo selettivo, nelle migliori aziende, bloccando gli investitori esterni». Altman ha negato queste accuse. Tra i suoi molti investimenti – circa 400, secondo lui – c’è anche quello da primo investitore nella startup di servizi finanziari Stripe, valutata oggi oltre 150 miliardi di dollari. Una persona a conoscenza dei dettagli di quel primo investimento ha detto che la sola politica di Altman è «Sam prima di tutto».
A un certo punto, anche Musk era diventato uno dei suoi principali avversari: entrambi ambivano al controllo di OpenAI, prima che Musk ne uscisse nel 2018. Sutskever aveva tollerato quella disputa con crescente disagio, manifestato a entrambi in una email a nome suo e del presidente Brockman. «L’obiettivo di OpenAI è costruire un futuro migliore ed evitare una dittatura dell’intelligenza artificiale generale [AGI]», c’era scritto nell’email. Un’altra frase, rivolta ad Altman, era: «non capiamo perché il titolo di CEO sia così importante per te. Le motivazioni che hai dichiarato sono cambiate, ed è difficile capire cosa ti spinga a farlo».
Un’altra storica divergenza nell’azienda fu quella che portò nel 2021 all’uscita dell’imprenditore Dario Amodei, che guidava il team responsabile della sicurezza e lasciò OpenAI insieme alla sorella Daniela e ad altri colleghi per fondare l’azienda concorrente Anthropic. La sua scelta fu descritta dai media come il risultato di un profondo disaccordo con Altman e Brockman, soprattutto riguardo alla loro scarsa sensibilità per le questioni di sicurezza e alla commercializzazione dei prodotti.

Dario Amodei, cofondatore e amministratore delegato di Anthropic, e Daniela Amodei, cofondatrice e presidente di Anthropic, durante il Bloomberg Technology Summit a San Francisco, California, il 9 maggio 2024 (David Paul Morris/Bloomberg/Getty Images)
Amodei aveva presentato ad Altman una serie di richieste in materia di sicurezza e politiche aziendali. Voleva impedire che l’investimento miliardario di Microsoft mettesse a rischio gli impegni etici stabiliti nello statuto di OpenAI, scrive il New Yorker. Altman aveva accettato quelle richieste, ma Amodei aveva poi scoperto che una clausola aggiunta nel contratto commerciale conferiva a Microsoft il potere di bloccare qualsiasi fusione di OpenAI e quindi di influenzare enormemente una decisione aziendale possibile. Il che contraddiceva gran parte dello statuto: «il problema di OpenAI è Sam stesso», scrisse Amodei in alcuni appunti circolati tra i colleghi.
Il New Yorker descrive infine Altman come una persona estremamente abile nel cambiare idee e posizioni politiche a seconda delle proprie esigenze. Alle presidenziali del 2016 aveva sostenuto la candidata dei Democratici Hillary Clinton e definito Donald Trump «una minaccia senza precedenti per gli Stati Uniti», e nel 2020 aveva contribuito alla raccolta fondi per la campagna elettorale di Joe Biden.
Nel 2024, man mano che diminuivano i consensi verso il presidente Biden, si era avvicinato ai Repubblicani, come aveva fatto la maggior parte dei CEO delle grandi aziende tecnologiche statunitensi. Dopo la vittoria di Trump, aveva donato un milione di dollari al suo fondo inaugurale e partecipato alle celebrazioni nel giorno dell’insediamento. Su X aveva detto di aver cambiato idea su Trump, e di rammaricarsi di «non aver riflettuto di più con la mia testa» in precedenza. Riferendosi ad Altman, un alto funzionario dell’amministrazione Biden ha detto: «con l’amministrazione Trump ha trovato un modo efficace di fare quello che vuole».
Inizialmente, mentre i dirigenti delle grandi aziende tecnologiche criticavano e respingevano le proposte di regolamentazione del settore dell’AI, Altman le richiedeva pubblicamente, mostrandosi molto più coscienzioso dei suoi colleghi. Nel 2023, durante un’udienza al Senato, si era ingraziato i senatori proponendo l’istituzione di nuova agenzia federale per supervisionare i modelli avanzati di AI. Ma nel frattempo ostacolava in privato e tramite attività di lobbying ogni tentativo di introdurre leggi statali, federali o internazionali che implicassero una limitazione o una maggiore supervisione del lavoro di sviluppo dell’AI.

Sam Altman, amministratore delegato di OpenAI, prende posto prima di una riunione della task force della Casa Bianca sull’istruzione in materia di intelligenza artificiale, a Washington D.C., il 4 settembre 2025 (AP/Alex Brandon)
Altman è considerato oggi una delle persone più influenti nel campo dell’AI. Sta raccogliendo centinaia di miliardi di dollari per avviare “ChipCo”, un progetto di produzione di chip AI proprietari, e per sostenere “Stargate”, una collaborazione tra OpenAI, Oracle e SoftBank, per la costruzione di data center e altre infrastrutture per l’AI in tutti gli Stati Uniti. Da anni tratta anche con i paesi del golfo Persico, tra cui l’Arabia Saudita e gli Emirati Arabi Uniti, per ottenere finanziamenti per la costruzione di enormi fonderie di microchip e data center, alcuni dei quali in Medio Oriente.
Spesso lo ha fatto con estrema discrezione, senza avvisare i membri del consiglio di OpenAI, scrive il New Yorker, o comunque con molta circospezione, consapevole dei rischi per la sua reputazione. Nel 2018, per esempio, era uscito dal consiglio consultivo del progetto Neom, una città “futuristica” che il principe Mohammed bin Salman voleva costruire in Arabia Saudita. Lo aveva fatto in reazione alla morte di Jamal Khashoggi, giornalista saudita del Washington Post ucciso nel 2018 nel consolato saudita di Istanbul, in Turchia, secondo un rapporto della CIA su ordine di bin Salman.
Eppure, dopo aver lasciato il consiglio, Altman si era informato con un suo consulente per capire se ci fosse comunque modo di ottenere dei finanziamenti da bin Salman. Al New Yorker il consulente ha raccontato che Altman non si chiedeva se fosse giusto o sbagliato, ma poneva domande come «Quali sarebbero le conseguenze se lo facessimo? Ci sarebbero problemi di controllo delle esportazioni? Ci sarebbero sanzioni? Cioè, potrei farla franca?».



