L’apocalisse scampata (finora)

Il 26 settembre del 1983, la storia dell’umanità arrivò vicino alla fine. Quella notte, Stanislav Petrov era l’ufficiale responsabile al centro di comando di Oko, il sistema di difesa nucleare preventiva dell’Unione Sovietica. Alle prime ore del mattino, i computer di Oko rilevarono che cinque missili nucleari americani erano stati lanciati contro la Russia. Le sirene cominciarono a strillare. Petrov doveva prendere una decisione.

Il regolamento prevedeva una procedura semplice. Petrov avrebbe dovuto alzare il telefono e avvertire il comandante in capo. I missili americani avrebbero colpito nel giro di pochi minuti. La risposta sovietica doveva essere rapidissima: lanciare immediatamente i propri missili nucleari contro obiettivi USA e NATO. Risultato: l’apocalisse nucleare.

Ma molti di noi neppure hanno sentito parlare di questa storia, vero? L’apocalisse nucleare non ci fu e la storia dell’umanità è continuata fino a oggi. Petrov decise di non dare l’allarme. Disse che si trattò di un problema tecnico. I tecnici, in realtà, avevano controllato i computer e avevano trovato tutto in ordine. Petrov non aveva la più pallida idea di che cosa stesse succedendo: poteva essere un problema tecnico o un vero attacco nucleare.

Trent’anni dopo Petrov disse alla BBC che secondo lui le probabilità erano cinquanta e cinquanta. Petrov decise di scommettere sul problema tecnico. Se si fosse sbagliato, le prime esplosioni sarebbero cominciate dopo pochi minuti. Dopo 23 minuti non era successo nulla e Petrov pensò di aver fatto la scommessa giusta. In effetti, era stato un bug del sistema di Oko.

C’è gente che il 26 settembre di ogni anno festeggia il Petrov Day per commemorare l’incidente. Si tratta di un rituale laico che serve a rendere emotivamente vivido il problema del rischio esistenziale, cioè quei tipi di rischi che possono cancellare la specie umana dall’universo. Il rituale—con tanto di candele accese e brani letti ad alta voce—è un’usanza strampalata. La sua filosofia di fondo però è particolarmente istruttiva in questi giorni in cui apocalittici e negazionisti si scontrano con grande agitazione.

La storia del progresso umano è strabiliante. E il rischio dell’apocalisse esiste ed è concreto. Questi due concetti, che nella scomposta battaglia quotidiana degli agitati sono in genere branditi l’uno contro l’altro, sono entrambi veri e andrebbero coltivati assieme in modo razionale. Questa è in fondo la morale del Petrov Day.

Nick Bostrom, filosofo all’Università di Oxford, è l’inventore del concetto di rischio esistenziale. Bostrom ricorda che rischi piccoli e grandi sono dappertutto, ovviamente. Ma anche i rischi più seri come guerre, genocidi, e recessioni globali sono comunque meno seri dei rischi esistenziali, quelli che hanno il potere di annientare l’umanità. Questi rischi, spiega Bostrom, sono un fenomeno recente. Le guerre mondiali, la peste nera, le epidemie di influenza, i terremoti sono tragedie successe più volte nella storia dell’uomo e che sappiamo grossomodo concepire nella loro portata enorme. Ma con l’eccezione della possibilità remota che un asteroide colpisse la terra, non abbiamo avuto veri e propri rischi esistenziali fino a la metà del secolo scorso.

Il primo rischio esistenziale creato dall’uomo è stato la bomba atomica. Col progredire della tecnologia, il numero dei rischi esistenziali è cresciuto. Nel suo libro Superintelligenza, per esempio, Bostrom cerca di convincerci del fatto che la principale priorità della ricerca scientifica e tecnologica oggi dovrebbe essere quella di mitigare il rischio della creazione di un’intelligenza artificiale ostile.

Sembra fantascienza, e l’entità del rischio esistenziale derivante dalla cosiddetta “intelligenza artificiale generale” è ampiamente dibattuto, ma si tratta di concrete preoccupazioni condivise da gente come Stephen Hawking e Bill Gates, e a cui centri di ricerca come il Future of Humanity Institute a Oxford e il Centre for the Study of Existential Risk a Cambridge dedicano parecchio lavoro.

Quali sono gli altri rischi esistenziali? Il giornalista scientifico Bryan Walsh ne parla nel suo nuovo libro End Times. C’è ancora la guerra nucleare, il cui rischio secondo alcuni analisti è tornato ad aumentare dopo l’elezione di Donald Trump, l’eruzione di uno dei supervulcani, gli scenari più estremi del riscaldamento globale, l’intelligenza artificiale fuori controllo, i rischi posti dall’uso delle biotecnologie (come ad esempio un attacco bioterroristico che provoca un’epidemia inarrestabile), e altri ancora. Walsh è scettico su alcuni e preoccupato per altri, ma prende la questione sul serio come fanno tanti esperti. La catastrofe è un fatto possibile.

OK: se siete come me state ruotando gli occhi all’indietro e state per smettere di leggere. Se siete invece tra quelli (forse più numerosi o quantomeno più visibili nelle discussioni di ogni giorno) naturalmente portati al pessimismo e all’allarmismo, avete già forse condiviso questo pezzo sui social senza ancora averlo finito.

Questa differenza d’indole è anche uno dei fattori emotivi all’opera in questi giorni nelle interminabili discussioni sul messaggio di Greta Thunberg. I più pessimisti annunciano la fine dell’umanità, i più ottimisti pensano che sia tutta una sciocchezza. Nelle versioni più agitate (ma ahimè non rare) abbiamo, da una parte, urla sguaiate contro il progresso tecnologico e la crescita e, dall’altra, urla sguaiate contro un’adolescente straordinariamente matura che è preoccupata per il nostro futuro.

Dovremmo usare il Petrov Day per provare a ritrovare il senno. Dovremmo rimanere a bocca aperta ed essere costantemente grati per le meraviglie del progresso umano. Troppa gente, quando pensa a progresso e crescita, si figura solo miliardari sullo yacht e sfruttamento dei più deboli. Ma è incredibilmente pericoloso dimenticare che il prosperare dell’umanità è dovuto al progresso scientifico, tecnologico, economico, e morale.

Allo stesso tempo, dovremmo ricordarci che le nostre conquiste sono incredibilmente fragili e occuparci di prevenire la catastrofe in modo razionale. La crescita ha dei costi e la tecnologia ha dei rischi. Il punto è sempre quello di provare a stimare razionalmente costi e benefici, e fare le nostre migliori scommesse sul futuro.

Tenere questi due concetti in mente contemporaneamente è più faticoso che fare il tifo. Ma è l’unica assicurazione che abbiamo contro l’apocalisse.