Il post virale che fa previsioni dirompenti sull’AI

Lo ha scritto un imprenditore americano secondo cui a essere stravolto sarà qualsiasi lavoro cognitivo entro i prossimi anni, forse mesi

Alcune persone si aggirano tra i cubotti vuoti di un ufficio
Un gruppo di persone osserva un’installazione intitolata “Il giardino dell’Eden”, creata dalla coppia di artisti scandinavi Elmgreen & Dragset alla Fondazione Prada, a Milano, il 30 marzo 2022 (Emanuele Cremaschi/Getty Images)
Caricamento player

Negli ultimi giorni ha ottenuto milioni di visualizzazioni online un lungo post di un imprenditore statunitense che ha fatto le sue previsioni su come l’intelligenza artificiale cambierà il mercato del lavoro nei prossimi anni, forse mesi. Si intitola “Sta succedendo qualcosa di grosso”, e prospetta stravolgimenti molto più immediati, radicali e allarmanti di quelli che circolano abitualmente nelle discussioni di questo tipo. Va presa come una previsione tra molte e messa nella giusta prospettiva, ed è stata già oggetto di critiche e confutazioni: ma descrive e cristallizza un allarme che negli ultimi mesi è diventato più pressante e condiviso anche nel dibattito pubblico generalista.

Il post è stato scritto e condiviso su X da Matt Shumer, fondatore di una piccola azienda di New York che sviluppa un software di assistenza alla scrittura basato sull’AI. Appartiene a un genere catastrofista che ottiene ciclicamente grandi attenzioni sui social, ma sta circolando più di altri ed è stato ripreso da siti e giornali, anche in Italia. Se ne sta discutendo non tanto perché l’autore lavora nel settore dell’AI, come altri con le sue stesse idee e che hanno pubblicato analisi simili, ma perché il post è molto chiaro e articolato (è scritto con l’aiuto dell’AI, tra l’altro). «Non stiamo facendo previsioni. Vi stiamo dicendo cosa è già successo nei nostri lavori e vi stiamo avvertendo che sarete i prossimi», ha scritto Shumer.

Shumer ha paragonato l’indifferenza di molte persone verso i miglioramenti dell’AI negli ultimi mesi alle reazioni verso i primi segni della pandemia a febbraio del 2020, sottostimati dalla maggior parte della popolazione. Con la differenza che l’AI «è qualcosa di molto, molto più grosso del Covid». Ed è qualcosa che non può essere impedito né rallentato, perché nemmeno la grandissima maggioranza di chi lavora nel settore ha una vera influenza su cosa sta per accadere.

A plasmare il futuro della tecnologia, ha scritto Shumer, è «un numero incredibilmente piccolo di persone: poche centinaia di ricercatori in una manciata di aziende… OpenAI, Anthropic, Google DeepMind e poche altre». Ha scritto di aver deciso di scrivere il post dopo aver provato GPT 5.3 Codex di OpenAI e Claude Opus 4.6 di Anthropic, due nuovi modelli di AI distribuiti all’inizio di febbraio e progettati per funzionare come collaboratori autonomi, più che come assistenti che rispondono ai comandi.

– Leggi anche: Vocabolario minimo dell’intelligenza artificiale

In pratica non è più necessaria la parte di lavoro umano: «dico all’AI cosa voglio, mi allontano dal computer per quattro ore e, al mio ritorno, trovo il lavoro completato. Fatto bene, fatto meglio di come l’avrei fatto io, senza bisogno di correzioni», ha scritto Shumer. I nuovi modelli fanno anche valutazioni e di fatto prendono decisioni che implicano, secondo lui, una qualche forma di giudizio. Scelgono come sviluppare una certa app, per esempio: la testano in autonomia, e se necessario tornano indietro e la rifanno prima di sottoporla al test umano. Ma di solito l’app è perfetta.

Anche riguardo al rischio che l’AI rimpiazzi alcuni lavori umani ma non altri, secondo Shumer è una questione posta male: quasi tutti i lavori intellettuali sono interessati. «Diritto, finanza, medicina, contabilità, consulenza, scrittura, progettazione, analisi, assistenza clienti. Non in dieci anni. Chi sviluppa questi sistemi parla di uno-cinque anni. Alcuni dicono meno. E per quello che ho visto solo negli ultimi due mesi, penso che “meno” sia più probabile», ha scritto Shumer.

Ha spiegato che se nell’ingegneria informatica la sostituibilità del lavoro umano è emersa prima che in altri settori non è per il tipo di lavoro in sé, ma per effetto di una scelta consapevole compiuta a monte da chi sviluppa l’AI. I laboratori si sono concentrati sul renderla prima di tutto eccellente nella programmazione perché in questo modo l’AI avrebbe potuto contribuire direttamente alla costruzione della versione successiva di sé stessa. Ed è quello che sta succedendo e che è già successo, per lo sviluppo di GPT 5.3 Codex: ogni generazione ne costruisce una successiva più intelligente.

– Leggi anche: Claude Code promette un futuro in cui chiunque si farà i suoi software

A proposito delle persone che tendono a sminuire la portata dei cambiamenti che l’AI avrà nelle società, secondo Shumer lo fanno perché non hanno utilizzato i modelli attuali e basano le loro valutazioni su esperienze con l’AI avute nel 2024. Esperienze che non hanno più alcun valore, perché i modelli migliorano in modo esponenziale, non lineare: una cosa di cui sembrano oggi a malapena capaci, saranno bravissimi a farla nella prossima generazione. La sua tesi è che questo probabilmente varrà anche per giudizio umano, creatività, pensiero strategico, empatia e altre capacità oggi spesso descritte come limiti insuperabili per l’AI.

Secondo Schumer altre persone sminuiscono i cambiamenti prevedibili perché li paragonano a quelli provocati nella storia umana da altre forme di automazione del lavoro, che portarono i lavoratori licenziati a riqualificarsi come impiegati. Ma è un paragone inappropriato, secondo Shumer, perché non c’è settore che l’AI lasci scoperto, dal lavoro legale alla creazione di contenuti alle analisi mediche. Nel medio termine, niente di ciò che si può fare con un computer non potrà farlo l’AI. «L’AI non sta sostituendo una competenza specifica. È un sostituto generale del lavoro cognitivo. Migliora in tutto simultaneamente».

Lavori che implicano una responsabilità legale in tribunale o che richiedono un’attività e una presenza fisiche sembrano meno a rischio, ma è probabile che anche in questi ambiti l’AI progredirà più velocemente di quanto chiunque si aspetti, secondo Shumer. Il suo principale suggerimento – oltre a quello di mettere da parte dei risparmi, se possibile – è quindi di adattarsi a questi cambiamenti il prima possibile, utilizzando ogni giorno con curiosità e dedizione i software più evoluti di AI, ciascuno nel proprio settore.

– Leggi anche: L’AI ci fa davvero lavorare di meno?

Come succede con molte riflessioni di questo tipo, anche il post di Shumer ha suscitato reazioni opposte. Alcuni lo hanno considerato un avvertimento sensato e in buona fede. Altri un ennesimo tentativo di generare ansie e attirare attenzioni (e quindi investimenti) verso un settore sul cui futuro circolano anche molti dubbi. Settore che indipendentemente da questi dubbi è comunque il pane quotidiano di Shumer e di altri imprenditori che, come lui, tendono a parlarne con grande enfasi e toni spesso apocalittici.

Una delle principali obiezioni riguarda la sua stima dei tempi entro cui si verificheranno tutti i cambiamenti che ha descritto. Stima che non tiene conto di alcuni colli di bottiglia e vincoli di base relativi al mondo dell’economia, più che dell’informatica, ha scritto Vox. Le economie non «assorbono» gli effetti delle evoluzioni tecnologiche al ritmo con cui quelle tecnologie progrediscono: l’implementazione dell’AI in grandi istituzioni regolamentate richiederà investimenti ingenti.

Inoltre il progresso tecnologico e la crescita economica non sempre vanno di pari passo. «Le società più ricche storicamente scelgono più tempo libero – pensionamenti anticipati, settimane lavorative brevi – non più tempo in ufficio o in fabbrica», ha scritto Vox. E questo significa che una maggiore capacità produttiva potrebbe portare a un miglioramento del benessere delle famiglie e a un aumento del prodotto interno lordo (PIL) relativamente modesto. Anche questa ipotesi è però a sua volta messa in discussione da chi la ritiene improbabile senza una negoziazione collettiva e un dialogo sociale tra imprese e lavoratori, che chiarisca come riconoscere dal punto di vista salariale il lavoro umano fornito tramite strumenti di AI.

– Leggi anche: L’AI ci fa davvero lavorare di meno?

In generale, l’AI può accelerare quanto vuole, «ma se le infrastrutture energetiche, il capitale fisico, le autorizzazioni normative o il processo decisionale umano si muovono a velocità normali», questi diventano i vincoli che limitano la velocità di crescita dell’intera economia, ha scritto Vox.

Shumer si è difeso da alcune critiche, tra cui quella di essere stato eccessivamente allarmista. Intervistato dal New York Magazine, ha detto di aver scritto quel post soltanto per informare amici e persone a cui vuole bene, con un linguaggio semplice e non da addetti, su cosa sta per succedere: «preferirei che ne fossero consapevoli e avessero l’opportunità di prepararsi piuttosto che essere colte di sorpresa da forze che non possono realmente controllare».

Ha inoltre chiarito di non avere alcun interesse economico specifico e nessuna collaborazione commerciale con le grandi aziende dell’AI. E ha aggiunto che il fatto che l’AI possa fare qualcosa non significa che prolifererà immediatamente in tutta l’economia, perché esistono vincoli strutturali e normativi, e perché in alcuni settori emergerà più lentamente che in altri. Ma nel frattempo, ha aggiunto, «ognuno deve capire cosa significhi per sé e per il proprio settore», e presumere che l’AI non sappia fare una certa cosa secondo lui è l’approccio sbagliato alla questione.