La fuffa intorno all’intelligenza artificiale

Una trovata pubblicitaria di Burger King dimostra quanto siamo ancora confusi e quanto poco sappiamo delle tecnologie che cambieranno il mondo (forse)

Una scena di "Maniac", 2018 (Netflix)
Una scena di "Maniac", 2018 (Netflix)

Burger King, una delle più grandi catene di fast food al mondo, ha preparato una serie di nuovi spot televisivi da trasmettere in prima serata negli Stati Uniti, sostenendo di averli prodotti utilizzando sistemi di intelligenza artificiale (AI). Ogni pubblicità inizia con il classico rumore dei modem di una volta per collegarsi a Internet, seguito da una voce metallica che legge testi piuttosto sconclusionati e divertenti per descrivere gli hamburger, come: “Un letto di lattuga sul quale puoi dormire, un letto di maionese per un sonnellino extra” e “Il logo di Burger King col pollo è la nuova patata”. Per stessa ammissione di Burger King, in realtà gli spot sono stati pensati e realizzati da pubblicitari in carne e ossa, allo scopo di prendere in giro le grandi aspettative e attenzioni di cui godono le AI negli ultimi tempi, con risultati a volte discutibili.

Come ha spiegato al sito di AdWeek il responsabile del marketing di Burger King, Marcelo Pascoa, l’idea era attirare l’attenzione degli spettatori sorprendendoli con qualcosa di chiaramente inverosimile, ma comunque attuale e divertente: “AI, bot, machine learning, algoritmi per il deep learning, blockchain e altro: questi sono tutti argomenti che affrontiamo nel valutare il futuro del marketing. Dobbiamo però evitare di perderci nel mare delle innovazioni tecnologiche e parole alla moda, dimenticando ciò che davvero conta. E questa è l’idea. L’intelligenza artificiale non può sostituire le grandi idee creative che vengono in mente alle persone reali”.

Gli spot di Burger King, ingannevoli e apparentemente innocui, colgono un aspetto centrale nel nostro rapporto con le nuove tecnologie complicate e dai contorni ancora molto sfumati, sulle quali è difficile farsi un’idea. In questo senso l’AI è un caso esemplare: se ne parla di continuo ed è ciò su cui si stanno concentrando i più grandi investimenti nella Silicon Valley e in Cina, eppure c’è ancora una grande differenza tra ciò che leggiamo nei comunicati che celebrano i grandi progressi raggiunti dai sistemi di intelligenza artificiale e le nostre esperienze quotidiane. Ci sono AI che riescono a battere il campione mondiale del complicatissimo gioco cinese GO, altre che gestiscono i sistemi di guida automatica delle automobili, ma al tempo stesso abbiamo in tasca assistenti virtuali come Siri che ci vengono venduti come intelligenze artificiali, anche se di intelligente hanno ben poco e sono quasi totalmente inutili.

Le percezioni ambivalenti che abbiamo intorno alle AI, e su cui giocano gli spot di Burger King, derivano proprio da una difficoltà di fondo: definire in modo univoco e chiaro l’intelligenza artificiale. Dietro queste due parole si è affastellata una grande quantità di argomenti che vanno dalla pura informatica alla neurologia, passando per gli studi su come funziona cognitivamente il nostro cervello. Generalizzando molto, possiamo dire che: l’intelligenza artificiale è la scienza che si occupa di come creare macchine intelligenti, e che ha trovato nelle possibilità offerte dall’informatica la via più pratica e probabile per poterlo fare.

Il concetto di AI è profondamente intrecciato alla domanda delle domande: come funziona l’intelligenza umana? Le scoperte sui meccanismi che governano il modo in cui pensiamo, infatti, potrebbero portarci a sviluppare la migliore AI possibile; secondo altri ricercatori potrebbe avvenire esattamente il contrario: svilupperemo una AI molto potente senza comprendere di preciso come funzioni, e questa ci aiuterà a capire come funzionano cervello e conoscenza. Del resto già oggi ci sono moltissime cose che sfuggono alla nostra comprensione, in ambito scientifico, e che però riusciamo a sfruttare perfettamente per ottenere risultati concreti.

Spesso per motivi di marketing, e magari attirare l’attenzione di qualche investitore, ricercatori e aziende promuovono come “intelligenze artificiali” sistemi che a ben guardare non hanno molto di “intelligente”. Lo fanno sfruttando la definizione di AI per sua stessa natura molto sfumata, applicandola come meglio credono ai loro prodotti. Lontani dai loro responsabili marketing e dalle orecchie dei potenziali investitori, praticamente tutti quelli che lavorano nel settore ammettono la stessa cosa: allo stato attuale, l’intelligenza artificiale è stupida. Ma questo non significa che sia inutile.

Ci sono persone molto stupide che eccellono nel loro lavoro. Qualcosa di analogo avviene con le AI: non possiamo dire che abbiano un’intelligenza generale e articolata come la nostra, ma hanno indiscutibili abilità. Possono per esempio analizzare gigantesche quantità di dati che possono fare da base per l’apprendimento: attraverso l’analisi è la stessa macchina a farsi un’idea delle regole, che sia un gioco in scatola o come si attraversa la strada, e a metterle poi in pratica. Queste e altre soluzioni fanno parte di campi di ricerca e sviluppo molto esplorati in questi anni, e che riguardano deep learning, machine learning e reti neurali. Sono cose diverse tra loro, ma che possono essere utilizzate insieme per ottenere sistemi più o meno raffinati di intelligenza artificiale (qui una guida minima).

I progressi informatici, con processori e computer sempre più potenti, insieme ai maggiori investimenti hanno portato in questi anni a una notevole accelerazione nella ricerca delle AI. I risultati ottenuti finora sono molto circoscritti, ma fanno ben sperare per gli sviluppi e le innovazioni che potranno portare in futuro. Annunci, articoli di giornale e campagne di marketing hanno portato fuori fase le aspettative: sono diventate molto più alte in breve tempo rispetto a quanto sia concretamente ottenibile dalle intelligenze artificiali. Anche per questo motivo Siri, un cane robot o un’auto che si guida da sola ci appaiono molto più stupidi e banali di quanto in realtà lo siano le tecnologie che li fanno funzionare.

Nel saggio “La farsa dell’automazione”, Astra Taylor si interroga sulle esagerazioni intorno ai progressi raggiunti con robot e intelligenze artificiali. Nella sua analisi introduce il concetto di “fasullomazione” (“fauxtomation”), ovvero la tendenza delle aziende a promuovere le capacità tecnologiche dei loro prodotti lodandole in modo esagerato. Un forno a microonde viene definito “intelligente” per il semplice fatto di essere in grado di regolare i minuti di cottura, dopo avere letto il codice a barre del prodotto che sta per cuocere e averlo cercato online. È un modo per vendere più microonde ed è piuttosto innocuo, ma contribuisce a creare un’idea distorta di cosa intendiamo per “intelligente” e dove si sta muovendo la tecnologia.

L’automazione, prosegue Taylor, non è neutrale ed equidistante come si potrebbe immaginare. In diversi settori lavorativi è utilizzata per giustificare condizioni svantaggiose per gli impiegati o per lasciare le cose come stanno. Il concetto di AI viene sempre più usato come minaccia verso i lavoratori che chiedono miglioramenti del loro trattamento, per esempio prospettando loro la possibilità che a breve possa essere una macchina a svolgere il loro lavoro, a costi molto più bassi. È un aspetto molto più pericoloso della “fasullomazione”, che incide sulla qualità della vita delle persone molto di più di un microonde venduto come intelligente, anche se rimane piuttosto stupido.

Il rischio è che in questa fase di transizione verso vere e proprie AI, che secondo gli osservatori sarà piuttosto lunga (almeno un decennio), l’idea fuori dalla realtà di intelligenza artificiale promossa da chi la sviluppa a fini commerciali possa influire sulle decisioni dei politici, e sulle stesse scelte dell’opinione pubblica. Altri potrebbero utilizzare la “fasullomazione” al contrario, per esempio per dipingere scenari futuri dove le AI sono necessariamente una rovina, allo scopo di trarne benefici nel breve periodo alle elezioni. Un’idea distorta sulle effettive capacità di una tecnologia può portare a scelte sbagliate e costose per tutti. Una nuova tecnologia non è di per sé buona o cattiva, ma può esserlo l’uso che se ne fa.