Per ora è difficile fare soldi con l’intelligenza artificiale

Far funzionare servizi come ChatGPT costa moltissimo, anche perché viene usato tanto e a sproposito

(AP Photo/Stephen Brashear)
(AP Photo/Stephen Brashear)

Nell’ultimo anno e mezzo, a causa del successo di intelligenze artificiali generative come ChatGPT, gli investimenti nel settore sono aumentati molto, superando del 58% quelli dell’anno precedente. Secondo dati raccolti dalla società di analisi di dati PitchBook, nei primi mesi del 2023 il totale degli investimenti è ammontato a 15,2 miliardi di dollari: di questi circa dieci miliardi di dollari vengono solamente da Microsoft, che lo scorso gennaio ha stretto un’alleanza con OpenAI, azienda produttrice di ChatGPT. Il fenomeno ha interessato tutti: Meta ha presentato nuovi prodotti di questo tipo mentre Apple conta di investire un miliardo di dollari all’anno per riguadagnare spazio nel settore. Nell’ultimo anno, inoltre, la società Anthropic, sviluppatrice del chatbot Claude, ha ricevuto investimenti sia da parte di Google (che vi ha appena investito due miliardi di dollari, dopo i 300 milioni d’inizio anno) che di Microsoft (circa quattro miliardi lo scorso settembre).

Ciononostante, le aziende del settore non hanno ancora capito come generare profitti da questi servizi, che continuano a essere molto costosi da gestire. La principale voce di spesa è quella relativa ai server e alla componentistica necessaria per sviluppare un modello linguistico complesso come GPT-4. Recentemente il sito di notizie di settore The Information ha rivelato che OpenAI spende circa 700mila dollari al giorno per far funzionare ChatGPT, soprattutto a causa dei costi legati all’enorme potenza computazionale necessaria a far funzionare l’IA.

Questo tipo di chatbot si basa su large language model (LLM), o modello linguistico ampio, sistemi informatici in grado di fare calcoli probabilistici: in pratica, gli LLM sono in grado di “indovinare” la parola con cui concludere o continuare una certa frase, grazie allo studio e all’analisi di enormi moli di dati, testi, libri e articoli d’ogni tipo. Questa fase – chiamata “training” – può costare «decine di milioni di dollari», secondo un esperto sentito da The Information, ed è solo l’inizio: i costi operativi e la manutenzione del modello «superano molto quelli del training», soprattutto quando si lavora su larga scala. Nel machine learning (una specifica branca delle intelligenze artificiali), infatti, esistono due fasi: dopo il training c’è l’inference, in cui l’IA gestisce le informazioni apprese per generare risposte. Quest’ultima fase presenta dei costi addirittura superiori.

A tal proposito, secondo Reuters, Microsoft è al lavoro su un nuovo tipo di chip, chiamato Athena, in grado di ridurre le spese legate al mantenimento degli LLM, per il momento ancora insostenibili: ogni richiesta (o “prompt”) fatta a ChatGPT costerebbe quattro centesimi di dollaro, secondo l’analista Stacy Rasgon della società Bernstein, citato da Reuters. Per arrivare allo sviluppo di un chip simile potrebbero volerci anni, senza contare le difficoltà tecniche già incontrate in questo campo da Meta, che investe da tempo su un nuovo tipo di chip per le proprie IA.

– Leggi anche: Bisogna capirsi su cosa sia “l’intelligenza artificiale”

Gli alti costi di questi servizi non rappresentano un problema nuovo: la collaborazione tra OpenAI e Microsoft, ad esempio, iniziò ufficialmente nel 2019, quando OpenAI cominciò a utilizzare Azure, la divisione cloud di Microsoft, per sviluppare le proprie IA. Già all’epoca, OpenAI aveva bisogno di un partner commerciale per ridurre le spese: è da qui che bisogna partire per capire il rapporto che si è instaurato tra le due società negli ultimi mesi, e che ha portato all’introduzione di servizi come Azure OpenAI, che permette di utilizzare le IA di OpenAI nei prodotti cloud di Microsoft . In un momento in cui molte aziende faticano a trasformare questi investimenti in profitti, Azure OpenAI sembra un successo: secondo i dati ufficiali sarebbero 18mila le organizzazioni che la usano. Microsoft sembra però cauta nel commentare questi dati, sottolineando che «ci vorrà tempo affinché aziende e consumatori capiscano come vogliono usare le IA e quanto sono disposti a pagare per farlo».

Nel frattempo, questi servizi continuano a perdere soldi. Copilot, uno dei primi prodotti nati dall’alleanza tra OpenAI e Microsoft, è un assistente digitale in grado di scrivere e modificare il codice informatico, aiutando i programmatori. Copilot viene usato da circa un milione e mezzo di utenti, che pagano dieci dollari al mese per il servizio: secondo il Wall Street Journal, però, nei primi mesi dell’anno l’azienda «ha perso in media più di venti dollari al mese per ciascun utente». Per quelli più attivi, inoltre, ovvero quelli che usano Copilot più spesso e per compiti complessi, il costo per Microsoft sarebbe arrivato anche a 80 dollari al mese.

Finora sia Microsoft che Google hanno puntato su abbonamenti di tipo flat, in cui ogni utente paga la stessa quota mensile, senza limiti d’utilizzo, per utilizzare le IA in programmi come Microsoft Word o Google Docs. L’intelligenza artificiale di Google, Bard, è da poco collegata ai molti prodotti dell’azienda, tra cui Gmail, dove può essere utilizzata per comporre o riassumere i messaggi di posta. In questo modo, però, gli utenti finiscono per sfruttare sempre le IA più sofisticate anche per lavori piuttosto semplici: «Usare GPT-4 per riassumere una mail è come prendere una Lamborghini per consegnare una pizza», ha notato il Wall Street Journal.

– Leggi anche: Perché le intelligenze artificiali funzionino serve che le intelligenze umane facciano lavori noiosissimi

Anche per questo, lo scorso luglio Microsoft ha annunciato una collaborazione con Meta, il gruppo a cui fa capo Facebook e che investe da tempo nelle IA. Tra i suoi prodotti più noti c’è Llama 2, una famiglia di modelli linguistici dalle dimensioni ridotte rispetto a GPT-4, e quindi meno costosi da far funzionare. Llama 2, inoltre, è stato progettato per essere utilizzato a fini commerciali, ed è pensato per poter essere adottato e personalizzato da diverse aziende. L’accordo di Microsoft con Meta ha una duplice rilevanza: innanzitutto riguarda due tra le più grandi e importanti aziende del settore (e del mondo); in secondo luogo, conferma l’indipendenza di Microsoft nei confronti di OpenAI, nonostante l’accordo miliardario dello scorso gennaio. A conferma del margine d’azione di Microsoft, a fine settembre The Information ha svelato che l’azienda «sta lavorando a un piano B» per «sviluppare una IA conversazionale che potrebbe avere risultati equivalenti a quella di OpenAI ma che sia più piccola e meno costosa da gestire».

Anche Adobe, sviluppatrice di programmi come Photoshop e Illustrator, ha scelto di limitare l’utilizzo delle sue IA generative, puntando su un sistema fondato sui crediti, una volta esauriti i quali la velocità del servizio viene abbassata per scoraggiarne il sovrautilizzo. Il sentimento più diffuso tra queste aziende è che, dopo i primi mesi di investimenti a tappeto, sia il momento di usare una maggiore cautela: «Molti clienti con cui ho parlato non sono felici dei costi di questi modelli», ha detto il responsabile della divisione cloud di Amazon, Adam Selipsky. «Siamo ovviamente a un punto in cui dobbiamo tradurre l’eccitazione e l’interesse verso una vera adozione». C’è addirittura chi pensa che questo sia l’inizio della fine di questa ondata di investimenti facili nelle startup del settore: secondo May Habib, CEO di Writer, un’azienda del settore, «entro l’anno prossimo questa pioggia di soldi per le intelligenze artificiali generative finirà».