L’AI potrebbe rimpiazzare anche gli amministratori delegati?

Probabilmente migliorerebbe la produttività aziendale, ma come per altri ruoli richiederebbe comunque una supervisione umana

Un’illustrazione di un gruppo di dipendenti che lavorano ai computer, con la testa di un robot gigante alle loro spalle
(Getty Images)
0 seconds of 0 secondsVolume 90%
Press shift question mark to access a list of keyboard shortcuts
00:00
00:00
00:00
 

Il dibattito sull’intelligenza artificiale è spesso agitato da un’ipotesi immaginata e temuta da molte persone: che i software possano in futuro svolgere in modo più efficiente e meno costoso per le aziende i lavori svolti oggi dagli esseri umani. Più raramente è presa in considerazione la possibilità che tra quei lavori ci sia anche il lavoro degli umani che oggi dirigono quelle aziende e coordinano il lavoro altrui.

Eppure è possibile supporre che per alcune attività tipiche degli amministratori delegati, come prendere e comunicare decisioni difficili, pianificare spese o individuare nuove tendenze nel mercato, l’imparzialità e l’instancabilità di un software di intelligenza artificiale siano qualità utili. Lo pensano anche molti dirigenti: il 47 per cento di loro ritiene che il ruolo del CEO dovrebbe essere automatizzato in gran parte o del tutto, secondo un rapporto del 2023 di edX, una piattaforma sviluppata da dirigenti di Harvard e del Massachusetts Institute of Technology (MIT).

Il lavoro dei “capi” è peraltro ben retribuito: 290 volte più di quello di un lavoratore medio, nelle aziende statunitensi, secondo una stima del think tank Economic Policy Institute. Il che implica che la presumibile riduzione dei costi nel sostituirli con l’intelligenza artificiale sarebbe cospicua.

Non ci sono però molti dati su come se la caverebbe l’intelligenza artificiale generativa – software in grado di generare testi, immagini e video imitando il lavoro umano – al posto degli amministratori delegati. Un esperimento su larga scala con 344 partecipanti, tra cui studenti, neolaureati e dirigenti di banca, fu condotto tra febbraio e luglio del 2024 da un gruppo di ricercatori della business school dell’università di Cambridge.

Il gruppo sviluppò un gioco che simulava il tipo di situazioni affrontate dal CEO di un’ipotetica grande azienda automobilistica statunitense e misurava la qualità delle sue scelte secondo vari parametri. La simulazione integrava modelli matematici basati su dati di mercato reali e anche fattori variabili come le tendenze economiche e gli effetti della pandemia. Ogni turno di gioco corrispondeva a un anno fiscale nell’azienda.

L’obiettivo del gioco era resistere il più a lungo possibile senza essere licenziati da un consiglio di amministrazione virtuale, massimizzando nel frattempo il valore complessivo delle azioni della società. Le scelte di quattro partecipanti umani – i due migliori studenti e i due migliori dirigenti – furono poi confrontate con quelle prese nella stessa simulazione e in parallelo da GPT-4o, il modello linguistico avanzato alla base del sistema di intelligenza artificiale della società OpenAI.

I risultati, secondo i ricercatori, furono sorprendenti. Le scelte dei CEO “artificiali” erano state costantemente migliori di quelle prese dai partecipanti umani: GPT-4o aveva ottenuto con tre turni di anticipo la redditività ottenuta dal miglior partecipante umano. C’era però un aspetto critico: l’intelligenza artificiale veniva licenziata più rapidamente rispetto agli umani.

La ragione è che di fronte a eventi dirompenti e imprevisti come il crollo dei mercati durante la pandemia, i migliori partecipanti avevano adottato strategie a lungo termine, più caute e flessibili, che avevano permesso di ridurre i rischi pur limitando i guadagni. Al contrario, GPT-4o aveva ottenuto risultati iniziali migliori, ma era poi rimasto «intrappolato» in una mentalità di ottimizzazione a breve termine. Crescita e redditività miglioravano di continuo prima che uno shock di mercato (un evento inaspettato e non prevedibile, esterno al sistema economico) interrompesse la serie positiva.

Curiosamente, tra i partecipanti umani, anche i dirigenti di alto livello tendevano a mancare di intuizione e lungimiranza in casi del genere, e venivano licenziati più velocemente degli altri. Sia loro che GPT-4o, secondo i ricercatori, mostravano «lo stesso difetto: troppa sicurezza in un sistema che premia la flessibilità e la visione a lungo termine tanto quanto l’ambizione aggressiva».

La facciata esterna di un palazzo di uffici con le vetrate

Un palazzo di uffici a Cannon Street, a Londra, il 6 febbraio 2013 (Oli Scarff/Getty Images)

Di recente il giornalista Mark Dent ha scritto su The Hustle di un altro suo esperimento, più informale e meno strutturato. Ha chiesto a Claude, il chatbot sviluppato dalla società di intelligenza artificiale Anthropic, di vestire i panni del CEO di tre diverse aziende che stanno cercando di riprendersi dopo un periodo di difficoltà sul mercato (Southwest Airlines, Nike e Starbucks).

Le idee e le strategie suggerite dal chatbot non erano tanto diverse da quelle dei CEO umani di ciascuna azienda. Questo perché Claude e altri chatbot simili utilizzano informazioni pubbliche, perlopiù tratte da news che descrivono azioni già intraprese da quelle aziende. Del resto i dati utilizzati per l’addestramento dei modelli linguistici erano stati descritti anche dai ricercatori dell’università di Cambridge come un fattore molto influente sull’efficienza finale dei CEO artificiali: dati di scarsa qualità e quantità, o viziati da pregiudizi nella raccolta, portano a risultati peggiori.

Una differenza emersa nella prova di Dent tra le strategie elaborate da Claude e quelle dei CEO reali delle aziende è che il chatbot trattava la questione dei licenziamenti e dei rapporti con la clientela con più attenzione rispetto alle sue controparti umane. Aveva una maggiore preoccupazione di comunicare le scelte aziendali ai clienti, per esempio, e cercava di evitare del tutto i licenziamenti, valutando piuttosto pensionamenti anticipati e riduzioni degli orari di lavoro.

Un punto debole del chatbot era invece una certa mancanza di competenze personali e relazionali di solito fondamentali per motivare i dipendenti e per rapportarsi con gli investitori e il consiglio di amministrazione. Mostrava inoltre una certa tendenza nota dell’intelligenza artificiale a essere indecisa e subire facilmente l’influenza di chiunque le dia dei suggerimenti. «Di certo non è una buona caratteristica per i CEO, che devono essere decisi», ha scritto Dent.

Secondo il gruppo di ricerca dell’università di Cambridge i dati sperimentali, per quanto limitati, suggeriscono che l’utilizzo dell’AI generativa nei ruoli dirigenziali possa migliorare in modo «impressionante» i processi decisionali nelle aziende e aumentare la produttività. Permetterebbe infatti di prendere decisioni più informate, fornendo analisi di dati complessi, ma alla fine della fiera quelle decisioni dovrebbero essere prese comunque da esseri umani, principalmente per due ragioni.

La prima è che gli esseri umani tendenzialmente eccellono in capacità di intuizione, giudizio strategico a lungo termine, valutazioni etiche ed empatia: aspetti rispetto ai quali l’AI attuale mostra invece diverse carenze. La seconda ragione è che rimpiazzare del tutto i CEO con l’intelligenza artificiale, il cui status giuridico è ancora indefinito, renderebbe complicato attribuire la responsabilità delle scelte aziendali e quindi dei danni causati da eventuali decisioni sbagliate.

Esiste anche il rischio che l’intelligenza artificiale possa essere sfruttata da alcune aziende proprio per questo motivo: «per evitare che le persone si assumano responsabilità», disse nel 2024 Sean Earley, CEO della società di consulenza Teneo, al New York Times, che citò un caso finito in tribunale di utilizzo aziendale di un chatbot.

A febbraio del 2024 un tribunale canadese aveva obbligato la compagnia aerea Air Canada a rimborsare un cliente che, pur avendone diritto, non aveva ricevuto uno sconto sul costo del biglietto previsto per chi viaggia per andare al funerale di un parente stretto o ad assisterlo in caso sia morente. A fornirgli l’informazione errata che lo sconto potesse essere chiesto anche a posteriori, entro 90 giorni dall’acquisto del biglietto, era stato un chatbot sul sito della compagnia. Air Canada si era difesa sostenendo di «non potere essere ritenuta responsabile delle informazioni fornite da uno dei suoi agenti, dipendenti o rappresentanti, incluso un chatbot».