La divisione filosofica che agita la Silicon Valley

La crisi di OpenAI è legata a un contesto di forte contrapposizione tra chi è ottimista sull'intelligenza artificiale e chi molto preoccupato

di Pietro Minto

Il CEO di OpenAI Samuel Altman durante un'audizione al Senato statunitense. (Aaron Schwartz/Xinhua via ZUMA Press)
Il CEO di OpenAI Samuel Altman durante un'audizione al Senato statunitense. (Aaron Schwartz/Xinhua via ZUMA Press)
Caricamento player

Prima di essere arrestato e condannato per frode, Sam Bankman-Fried era stato uno dei più rispettati imprenditori del settore delle criptovalute, e aveva fatto parlare di sé per le molte donazioni a campagne ambientaliste e progressiste. A ispirarlo era un movimento sociale e filosofico relativamente recente ma già molto influente nella Silicon Valley: viene chiamato effective altruism, o altruismo efficace, e si pone l’obiettivo di ottenere «il massimo bene per il maggior numero di persone», ispirandosi a una nozione filosofica nota come utilitarismo. In particolare, l’altruismo efficace mira a salvare il massimo numero possibile di vite e migliorare la condizione del maggior numero di persone, in una visione molto utilitaristica della filantropia e della beneficenza.

Per determinare le proprie azioni gli appartenenti a questa corrente filosofica, a cui ci si riferisce anche con le iniziali EA, non si limitano a ragionare sul presente o sul futuro più prossimo, ma tengono in considerazione anche le persone non ancora nate, orientando le proprie iniziative tenendo conto dell’aumento previsto della popolazione mondiale. Anche per questo, la filosofia è strettamente collegata al movimento del lungoterminismo, il cui filosofo di riferimento è lo scozzese William MacAskill, autore del saggio, What We Owe the Future, in cui sostiene «che influenzare positivamente il futuro a lungo termine sia una priorità morale chiave del nostro tempo». Questo approccio sul lungo termine è molto diffuso anche nel settore delle intelligenze artificiali, il cui sviluppo secondo molti esperti rischia di avere conseguenze disastrose e di ledere gli interessi degli umani del futuro.

È stato proprio il legame tra altruismo efficace, lungoterminismo e IA a contribuire alla recente crisi interna a OpenAI, l’azienda sviluppatrice di ChatGPT, che questo mese nel giro di pochi giorni ha licenziato e riassunto il suo CEO e cofondatore Sam Altman. A decidere l’uscita forzata di Altman era stato infatti il voto di quattro membri (su un totale di sei) del consiglio di amministrazione dell’azienda: il giorno del licenziamento, il CdA aveva pubblicato un comunicato in cui spiegava che Altman «non era stato sempre sincero nelle sue comunicazioni» e di conseguenza «il CdA non aveva più fiducia nella sua capacità di continuare a guidare OpenAI».

– Leggi anche: I cinque giorni matti di OpenAI

Da allora molti analisti hanno cercato di comprendere le ragioni di questa decisione. Nei giorni successivi alla riassunzione di Altman, il sito The Information e Reuters hanno raccontato che, poco prima della crisi, alcuni ricercatori di OpenAI «avevano scritto al CdA avvisandolo della scoperta di una potente IA che ritenevano fosse in grado di minacciare l’umanità». L’IA in questione, parte di un progetto chiamato Q* (o Q-star), era un nuovo modello in grado di risolvere alcuni problemi matematici elementari, un notevole progresso rispetto a quelli attualmente in uso. Ci sono però diversi dubbi su questa ricostruzione: l’autorevole giornalista Casey Newton, autore della newsletter Platformer, sostiene invece che il CdA non sia mai stato avvisato di Q* o dei rischi che comportava, e ha attribuito invece la crisi alle notevoli divisioni tra fazioni culturali e filosofiche nel CdA dell’azienda.

Tra queste c’è proprio quella che gira intorno all’altruismo efficace: almeno metà del CdA (o meglio, dell’ex CdA, visto che con il ritorno di Altman è stato sostituito in parte con nuovi membri) appoggiava infatti questa teoria filosofica. Secondo il sito Semafor il vecchio CdA contava tre membri con «profondi legami» con il movimento: la ricercatrice Helen Toner, l’amministratore delegato di Quora Adam D’Angelo e Tasha McCauley, consulente della Rand Corporation, un’organizzazione non profit. A questi si aggiunge il cofondatore e direttore scientifico della stessa OpenAI, Ilya Sutskever, la prima persona a essere nominata CEO dopo l’uscita di Altman, che avrebbe «opinioni sulle IA generalmente in sintonia con l’altruismo efficace».

– Leggi anche: Negli Stati Uniti c’è un certo interesse per l’“altruismo efficace”

I grandi successi registrati dal settore legato alle IA negli ultimi anni hanno però ispirato nuovi approcci filosofici che oggi sono in aperto contrasto con l’altruismo efficace. I principali sono quelli dei doomers (da “doom”, che significa rovina, destino tragico) e i tecno-utopisti. I primi ritengono che le IA siano una tecnologia troppo potente, destinata a sfuggirci di mano con gravi conseguenze, e quindi vada regolata severamente, anche con interventi estremi come la rimozione di Altman da OpenAI. I secondi pensano invece che le IA ci condurranno verso un futuro migliore. Negli ultimi mesi le due posizioni si sarebbero distanziate: secondo la ricercatrice Molly White si sarebbero addirittura radicalizzate, contribuendo a rendere la discussione tra i vari gruppi impossibile, in un clima di tensione che potrebbe aver causato la recente crisi di OpenAI. La divisione ha riguardato soprattutto il settore della “AI Safety”, la sicurezza (e l’etica) nello sviluppo di sistemi di intelligenze artificiali. Scott Aaronson, responsabile di AI Safety per OpenAI, ha spiegato al Wall Street Journal che le «sorprendenti capacità» di ChatGPT avrebbero preoccupato anche chi fino a quel momento ne aveva minimizzato i rischi.

La tensione tra ottimisti e fatalisti non è una novità: la stessa OpenAI nacque come reazione allarmata e pessimista ai progressi delle IA. Già nel 2014 Elon Musk, cofondatore dell’azienda (da cui uscì nel 2019), paragonò lo sviluppo di questi sistemi all’evocazione di «un demone». OpenAI nacque come non profit proprio per guidare lo sviluppo di queste tecnologie in modo aperto, cauto e trasparente, anche per distinguersi da realtà come Google, i cui progressi preoccupavano Musk. Anche Altman negli ultimi mesi ha fatto diverse dichiarazioni preoccupate sui possibili effetti futuri delle IA nelle nostre vite. Lo scorso maggio è stato tra i firmatari di una lettera aperta, firmata anche da dirigenti di Google e Microsoft, che diceva: «Mitigare i rischi dell’estinzione causata da una intelligenza artificiale dovrebbe essere una priorità globale insieme agli altri rischi di scala sociale come le pandemie e la guerra nucleare».

Negli stessi mesi Musk ha firmato un’altra lettera aperta che chiedeva una «pausa» di sei mesi allo sviluppo di tecnologie simili (nel frattempo, però, ha fondato xAI, una startup dedicata proprio alle intelligenze artificiali che ha presentato un suo primo chatbot). A pubblicare quest’ultima lettera aperta è stato il Future of Life Institute, un’associazione vicina all’altruismo efficace che ha l’obiettivo di «guidare la tecnologia trasformativa a vantaggio della vita e lontano dai rischi estremi su larga scala».

– Leggi anche: OpenAI sarà la prossima grande azienda tecnologica?

Il successo ottenuto dalle intelligenze artificiali generative in questo anno e mezzo ha attirato gli interessi e gli investimenti di molti ma anche contribuito a radicalizzare le opinioni degli addetti ai lavori. Lo scorso ottobre Marc Andreessen, capo del potentissimo fondo di investimenti a16z, ha pubblicato sul suo sito un “Manifesto Tecno-Ottimista” in cui, tra le altre cose, parla di una «macchina tecno-capitalista» come di «una spirale che va continuamente verso l’alto», quando non è limitata e influenzata negativamente da concetti come etica, sicurezza e sostenibilità. Pur non facendo il nome dell’altruismo efficace, Andreessen ha precisato che «noi abbiamo dei nemici, ma i nostri nemici non sono persone cattive, più che altro hanno idee cattive», per poi fare una lista dei concetti che a suo avviso vengono usati per demotivare e demonizzare il settore tecnologico. Tra questi, “rischio esistenziale”, “sostenibilità”, “responsabilità sociale”, “fiducia e sicurezza”, “etica tecnologica”.

Molly White, nota anche per il suo blog Web3 Is Going Great, in cui documentava gli scandali legati al settore delle criptovalute, ha sottolineato come il concetto di «techno-capital machine» sia una citazione del controverso filosofo Nick Land, padre dell’accelerazionismo, una teoria politica secondo la quale è possibile superare il capitalismo solo accelerando, e non contrastando, le sue caratteristiche. L’accelerazionismo, un concetto diffuso inizialmente negli ambienti di sinistra, anche a causa delle posizioni dello stesso Land è diventato molto apprezzato dalla alt-right, l’estrema destra americana. Land oggi è tra i filosofi di riferimento del movimento che più si oppone all’altruismo efficace, tra tutti un movimento nuovo che viene chiamato effective accelerationism (accelerazionismo efficace), e viene spesso indicato con la sigla “e/acc”.

Secondo una newsletter dedicata al movimento, «al cuore di e/acc ci sono una serie di conclusioni riguardo al mondo che sono state tratte dalla fisica vera e propria», tra tutte «la credenza, fondata nella termodinamica, che tutto ciò che esiste abbia caratteristiche che favoriscono la vita, che si espande di continuo». Sostengono che sia una conseguenza del Teorema di fluttuazione, un principio studiato in meccanica quantistica che viene interpretato dagli adepti di e/acc come un segnale chiaro sull’inevitabilità della vita, perché «la termodinamica favorisce la creazione di forme di vita complesse». In tutto questo, quindi, l’intelligenza (naturale o artificiale) ha un ruolo cruciale perché permette ai nuovi sistemi di trovare risorse e crescere, rispettando il volere fondamentale dell’universo. Secondo l’e/acc lo stesso sistema capitalistico sarebbe una forma di intelligenza perché permette a «tutti i tipi di energia nell’ambiente di essere catturati e utilizzati per il mantenimento e la crescita della civiltà». In sostanza, l’e/acc ripone una fiducia di fatto incondizionata nella tecnologia e nello sviluppo delle intelligenze artificiali, che sono ritenute cruciali per determinare un futuro migliore e florido per l’umanità.

– Leggi anche: Bisogna capirsi su cosa sia “l’intelligenza artificiale”

L’e/acc nasce in reazione all’altruismo efficace, di cui ricalca il nome, ma si è affermato come la filosofia più in voga tra i tecno-ottimisti e tutti quelli che non ne possono più dei timori e delle regole imposte da chi ha a cuore la sicurezza nelle IA. Negli ultimi mesi la sigla e/acc è comparsa nelle bio di alcuni dei più influenti nomi della Silicon Valley, tra cui il citato Andreessen e Garry Tan, capo dell’acceleratore di startup Y Combinator.

A rendere notevole l’ascesa di e/acc nei circoli più elitari della Silicon Valley è anche la sua origine: secondo il sito specializzato Know Your Meme, il primo riferimento ufficiale all’accelerazionismo efficace risale al primo luglio 2022 quando degli utenti Twitter (oggi chiamato X), chiamati @zetular, @BasedBeff e @creatine_cycle, ne discussero online. L’ultimo dei tre annunciò di «aver appena inventato una nuova filosofia con i ragazzi», taggando gli altri due.

È stato poi @BasedBeff, profilo nato come parodia di Jeff Bezos, il cofondatore di Amazon, a fornire qualche dettaglio “teorico” in più, spiegando che «l’accelerazionismo efficace è quello che si ottiene quando gli ingegneri del machine learning si sono stufati dei tecnocrati e degli autoritari che provano a inserirsi nella gerarchia di potere delle IA come gatekeeper (ovvero delle persone o degli enti in grado di controllare l’accesso a un settore, ndr) e controllori del suo potere. Aiuta a liberare la bestia, o levati di torno».

Per quanto di nicchia e ispirato da uno spirito messianico che lo rende inaccessibile ai più, l’e/acc è diventato una forza culturale di rilievo nell’ambiente delle IA, e ha estremizzato il conflitto con chiunque voglia procedere con cautela e attenzione, approccio che viene chiamato “decel” (da decelerazione), un termine che ha assunto un significato quasi spregiativo, a indicare una scarsa disposizione all’innovazione e un eccessivo allarmismo. I decel sono quindi accusati di voler frenare lo sviluppo tecnologico non solo dell’umanità ma anche, e soprattutto, degli Stati Uniti (specie in riferimento alla guerra tecnologica in corso con la Cina). Il blogger e giornalista Noah Smith ha recentemente pubblicato un post intitolato “Non essere decel” in cui ha scritto che «gli Stati Uniti non sono una nazione da decel, ma abbiamo comunque più decel di quanto sia salutare avere».

Il caos di OpenAI di queste settimane si è sviluppato quindi in questo contesto culturale. L’allontanamento di Altman ha amplificato e rinforzato il messaggio dell’accelerazionismo efficace, che ha accusato gli esponenti dell’altruismo efficace di aver provato a rovesciare l’azienda più importante del settore. Nei giorni più vivaci della crisi, Andreessen ha reagito inizialmente twittando semplicemente la sigla “e/acc”, per poi condividere una serie di messaggi tra cui una lettera aperta in cui diceva: «Cari doomer, spero che possiate riconoscere di averci provato con questa ridicola trovata e che ora tutti siano pronti a escludervi dalla compagnia delle persone sane di mente ed educate per un bel po’».

La grande scommessa di Andreessen su una sedicente filosofia nata circa un anno fa, e per ora relegata a qualche blog e profilo Twitter, ha sorpreso alcuni osservatori. Nel 2011 l’imprenditore firmò un manifesto diventato molto famoso, “Why Software Is Eating the World”, in cui descriveva il futuro del settore tecnologico. A partire dal 2009, anno della fondazione, la sua a16z è stata al centro di alcune delle operazioni più importanti nella storia dell’era dei social (investendo in Facebook, Instagram, Airbnb e Roblox, tra le altre) e oggi ha circa 35 miliardi di dollari in asset. Negli ultimi anni, però, in particolare a partire dalla pandemia, a16z ha anche puntato su una serie di mode passeggere con pessimi risultati.

– Leggi anche: Per ora è difficile fare soldi con l’intelligenza artificiale

Negli anni di maggiore interesse per le criptovalute, a16z ha investito circa sette miliardi di dollari in diverse aziende del settore crypto e Web3; durante la pandemia ha puntato su Clubhouse – dimenticato servizio per conversazioni di gruppo andato molto di moda nei mesi di lockdown – e su Susbstack, servizio per le newsletter a pagamento che oggi accusa difficoltà economiche. La giornalista Elizabeth Lopatto del sito The Verge ha messo insieme i molti errori recenti del fondo, che all’inizio degli anni Dieci «ha praticamente inventato le regole per l’hype nel settore» e che oggi sembra puntare sulla moda del momento, passando dal crypto ai new media e arrivando a una teoria filosofica in grado di giustificare la speculazione sul settore delle IA con la meccanica quantistica.

L’ascesa e la crescente influenza dell’e/acc nella Silicon Valley è notevole soprattutto per il lato mistico della filosofia, che sembra mescolare elementi del transumanesimo (movimento che vuole migliorare e potenziare l’essere umano con la tecnologia, fino a renderlo di fatto immortale) al lessico tecnico del settore delle IA, coltivando un particolare tipo di pensiero magico per cui gli umani – o meglio, alcuni umani – sarebbero destinati al successo, favoriti dalla stessa natura fisica dell’Universo. A oggi la conseguenza più diretta di queste posizioni è l’abbandono dell’atteggiamento più cauto ed etico legato al progresso nelle IA, che viene accusato non solo di frenare gli investimenti fatti nel campo ma anche, indirettamente, di ledere al futuro stesso dell’umanità.

Lo dimostra anche la recente storia di OpenAI, la quale, secondo una ricostruzione dell’Atlantic, avrebbe deciso di pubblicare ChatGPT in grande fretta nel 2022, quando venne a sapere che Anthropic, società del settore nata da una serie di transfughi di OpenAI nel 2020, era pronta a lanciare un suo chatbot. Altman decise di costruirne uno velocemente utilizzando il modello linguistico GPT-3.5 e mettendo in pausa GPT-4, il software più evoluto che era ancora in fase di sviluppo. Già all’epoca, alcuni programmatori e ricercatori dell’azienda accusarono i vertici della società di agire con scarsa cautela. La presentazione di ChatGPT, avvenuta il 30 novembre del 2022, non attirò comunque grandi attenzioni all’interno dell’azienda: quando alcuni dipendenti scommisero sul numero di utenti che avrebbe raggiunto nella prima settimana, qualcuno puntò sui centomila. Dopo appena cinque giorni, ChatGPT aveva raggiunto il milione di utenti. Un successo clamoroso che aveva già cominciato a creare divisioni all’interno di un’azienda nata come non profit e finita al centro del business più discusso e attraente del 2023.