Quanto siamo prevedibili

Strumenti sempre più potenti permettono di rilevare modelli di comportamento su cui si basano strategie di marketing e campagne politiche, tra molte preoccupazioni

prevedibili
Madrid, 25 ottobre 2015 (AP Photo/Francisco Seco)
Caricamento player

Negli ultimi anni, un’accresciuta familiarità con gli annunci pubblicitari che visualizziamo sugli smartphone e su altri dispositivi digitali ha stimolato, tra le altre cose, una serie di riflessioni sui limiti e sulle condizioni di utilizzo degli strumenti che permettono alle aziende di applicare strategie di marketing sempre più complesse e di indirizzare le comunicazioni commerciali a determinati e selezionati gruppi di utenti. Uno dei principali punti deboli delle tradizionali ricerche di mercato basate sui questionari, concordano diversi esperti, consisteva nel trascurare aspetti che spesso condizionano inconsapevolmente le scelte dei consumatori.

Oggi, quegli aspetti possono essere facilmente rilevati e poi analizzati sfruttando potenze di calcolo e di archiviazione digitale inimmaginabili fino a pochi decenni fa.

Insieme a una consapevolezza più estesa dei meccanismi di raccolta dei dati, sono cresciute tra gli analisti le preoccupazioni riguardo ai rischi e alle implicazioni di un’applicazione su larga scala di strategie esplicitamente tese a sviluppare modelli predittivi di comportamento della popolazione.

Ci si interroga da tempo, in particolare, sul rischio che rappresentazioni parziali della realtà, populismi e credenze pseudoscientifiche possano più facilmente attecchire e diffondersi in un contesto di ricerca sistematica della prevedibilità dei comportamenti umani, resa possibile da strumenti tecnologici sempre più precisi, in grado di individuare e sfruttare i pregiudizi cognitivi.

– Leggi anche: Perché vediamo cose che non ci sono

Ne ha scritto Steven Novella, neurologo statunitense e docente alla scuola di Medicina dell’Università Yale, in un post sul blog Neurologica, parte del sito della New England Skeptical Society (NESS), un’organizzazione non profit di cui Novella è presidente e che da metà degli anni Novanta si occupa di divulgazione e promozione dello scetticismo metodologico nell’analisi dei fenomeni culturali. «Non puoi essere sicuro di come si comporterà un individuo, così come non puoi prevedere come si comporterà una singola molecola d’aria. Ma in una certa misura puoi prevedere il comportamento della popolazione proprio come puoi prevedere il comportamento dei gas», spiega Novella.

I maghi, gli strateghi del marketing e quelli della politica, secondo Novella, hanno in comune una conoscenza profonda dei modi in cui le persone indirizzano la loro attenzione ed elaborano informazioni, conoscenza che nel corso del tempo si è sviluppata come individuazione di schemi ricorrenti e prevedibili nelle risposte umane. Recentemente, nella misura in cui sono sempre più spesso guidate da dettagliati studi di psicologia e analisi condotte su grandi quantità di dati, le campagne politiche hanno cominciato a somigliare sempre di più a campagne di marketing. E questo approccio condiviso, spiega Novella, si basa sull’idea che le persone «non siano i fiocchi di neve unici che ci piace pensare che siano, ma siano più simili a pecore che possono essere radunate».

manifestazione

Una manifestazione a Merrick, New York, 4 giugno 2020 (Al Bello/Getty Images)

Esistono vari modi per cercare di mantenere un maggiore controllo sulle proprie decisioni di acquisto. Uno abbastanza noto è quello di leggere le recensioni di altri acquirenti, magari riconoscendo quelle inaffidabili. Un altro è prendere atto della nostra inevitabile esposizione a diversi pregiudizi cognitivi. Ma in generale, spiega Novella, con l’avvento dei big data, dei social media e dell’intelligenza artificiale, i venditori sono via via diventati sempre più abili a compiere manipolazioni «volando sotto il nostro radar del pensiero critico».

– Leggi anche: Quanto è libero il libero arbitrio?

Questi strumenti, tramite l’aggregazione di enormi quantità di dati, hanno reso possibile individuare impulsi che sono in gran parte sconosciuti anche a noi stessi. «Le persone lasciano dietro di sé impronte digitali», ha sintetizzato a BBC Jason Brownlee, cofondatore di Colourtext, una società inglese specializzata in analisi di dati e approfondimenti sulle abitudini dei consumatori. In uno dei casi più citati, Colourtext ha studiato i modelli di consumo delle news analizzando i clic effettuati dagli utenti mentre visualizzavano centinaia di migliaia di articoli online. Le quantità di dati generati sono tali da rendere impossibile questo tipo di analisi, ha spiegato Brownlee, se non utilizzando l’intelligenza artificiale e i sistemi di cloud computing.

Tra i risultati è emerso, per esempio, che le persone interessate agli articoli sulle celebrità non leggono articoli di politica. Ma questa considerazione non vale nel caso del primo ministro britannico Boris Johnson, un’eccezione in base alla quale si potrebbe concludere che Johnson è visto non soltanto come un politico ma anche come una celebrità. E questo, secondo Brownlee, è un esempio di come i nuovi strumenti siano in grado di scombinare le categorie tradizionali utilizzate in passato nell’industria delle ricerche di mercato per definire con precisione i nostri gusti.

Anche le espressioni facciali o il tono di voce possono essere oggetto di analisi approfondite e dettagliate. La catena di fast food americana Del Taco ha coinvolto un’azienda di software di gestione dell’esperienza dei clienti e dei dipendenti, Medallia, per aggiornare gli arredamenti e i menu attraverso il feedback dei clienti. Medallia ha fornito una app per sondaggi che ha permesso ai clienti di Del Taco di registrare un video di se stessi mentre rispondevano a una serie di domande. La tecnologia utilizzata prevede di confrontare ogni volto con modelli diversi, misurando le emozioni provate dagli utenti sulla base di schemi preesistenti. Sistemi simili sono attualmente adottati anche nel campo della ricerca del personale.

– Leggi anche: Un’intelligenza artificiale le farà sapere

Nel 2012, si parlò molto del caso dell’azienda Target Corporation, uno dei maggiori rivenditori al dettaglio degli Stati Uniti. Target sviluppò un algoritmo in base al quale era in grado di stimare le probabilità che una cliente fosse incinta a giudicare dalle sue abitudini di acquisto. L’idea era di inviare tempestivamente a quelle clienti sconti e coupon validi per l’acquisto di articoli premaman, e cercare di farne delle clienti a lungo termine battendo sul tempo i concorrenti di mercato. I responsabili del marketing notarono tuttavia che alcune clienti rimanevano turbate dalla rapidità con cui Target scopriva la loro maternità. L’azienda si adattò quindi a quella situazione, inviando lo stesso i coupon ma insieme ad altre offerte, per mascherare le reali intenzioni della campagna.

Uno dei pregiudizi cognitivi noti da più tempo e alla base della prevedibilità di molte nostre decisioni, spiega Novella, è dato dalla nostra tendenza a semplificare eccessivamente le cose in modo da poterle comprendere e ricordare, riducendo il carico cognitivo. Un esempio classico è il pregiudizio della cifra a sinistra, ossia la nostra tendenza a semplificare un numero in una stima basata sulla cifra più a sinistra. È questa la ragione per cui così spesso le offerte prevedono un costo di 9,99 o 19,99 euro anziché di 10 o 20 euro.

– Leggi anche: Perché a volte ci sembra che gli smartphone ci ascoltino

Un altro pregiudizio molto noto è quello di ancoraggio, che descrive la nostra inclinazione a prendere, sulla scorta di altre informazioni usate come riferimento, decisioni che non prenderemmo in assenza di quel riferimento. Per esempio, un individuo può essere più propenso ad acquistare un’auto se quell’auto è affiancata da un modello più costoso (l’àncora, appunto). Nelle trattative di acquisto quell’individuo potrebbe trovare ragionevole un prezzo inferiore a quello dell’auto di riferimento, anche nel caso in cui quel prezzo fosse comunque superiore all’effettivo valore di mercato dell’auto.

Wal Mart

(J.D. Pooley/Getty Images)

I pregiudizi cognitivi sono oggetto di studi ed esperimenti di psicologia da moltissimo tempo, studi peraltro conosciuti e, in una certa misura, utilizzati anche nel marketing.

La differenza sostanziale tra le ricerche di marketing dei decenni scorsi e quelle attuali, secondo Novella, è che i mezzi dell’intelligenza artificiale applicati alle enormi quantità di dati personali disponibili oggi possono portare all’individuazione e allo sfruttamento di pregiudizi di cui non sappiamo ancora nemmeno l’esistenza. Novella – che è stato in anni recenti uno dei più attivi confutatori di teorie del complotto e oppositori della medicina alternativa e delle pseudoscienze – non si definisce preoccupato dai rischi per la privacy né dalla prospettiva che le scelte dei consumatori continuino a essere dettagliatamente tracciate.

Le due prospettive più «spaventose», secondo lui, riguardano l’applicazione di queste strategie per la promozione delle pseudoscienze e per la diffusione di messaggi politici. Il fatto che fenomeni come la medicina alternativa siano apparentemente promossi soltanto per vendere prodotti e servizi, dice, non dovrebbe far perdere di vista il fatto che quelle strategie contribuiscono poi a costruire o rafforzare rappresentazioni del mondo molto parziali, a volte espressamente basate sulle pseudoscienze e apertamente ostili alle alternative offerte dalla scienza. Un caso classico è la demonizzazione degli OGM finalizzata alla promozione del marchio “bio”, uno degli argomenti più complessi e discussi quando si parla di cibo.

– Leggi anche: Siete sicuri di sapere cosa sono gli OGM?

Negli ultimi due decenni, sostiene Novella, privilegiando un approccio basato sulla massimizzazione dei guadagni basati sui clic, gli algoritmi utilizzati dai social media hanno contribuito a produrre grandi sottoculture di teorici della cospirazione. Sono persone apparentemente prive del buon senso o della capacità di rilevare evidenti menzogne, scrive Novella. «Prendi “QAnon”: se 20 anni fa vi foste vantati di poter convincere milioni di persone del fatto che il mondo sia governato da pedofili adoratori di Satana, al punto che i sostenitori di questa teoria avrebbero effettivamente conquistato un importante partito politico, avreste pensato che quelle persone fossero degli svitati».

q anon

Persone all’aeroporto di Mankato, Minnesota, durante una tappa della campagna elettorale dell’allora presidente Donald Trump, il 17 agosto 2020 (Stephen Maturen/Getty Images)

Il populismo “tossico”, definito da Novella come «la capacità di manipolare emotivamente ampi segmenti della popolazione», è sempre stato il punto debole delle democrazie: la sostenibilità di questa forma di governo sarebbe oggi più che mai subordinata alla nostra capacità di esercitare un pensiero critico.

«Gli algoritmi non rendono le cose giuste se vengono applicati allegramente e ciecamente. Non rendono le cose giuste», chiarì nel 2017 la matematica e scrittrice statunitense Cathy O’Neil, in un’apprezzata conferenza TED. In quell’occasione, O’Neil qualificò come «politiche» le azioni da intraprendere per controllare e verificare accuratamente l’imparzialità degli algoritmi e degli indicatori scelti per valutare il successo dalle aziende che sviluppano quegli algoritmi.


O’Neil descrisse in parte gli stessi rischi evidenziati recentemente da Novella, ponendo l’attenzione sulla capacità di questi strumenti di «automatizzare lo status quo» e amplificare difetti presenti nel modello di partenza. «Sarebbero straordinari se vivessimo in un mondo perfetto, ma non lo abbiamo». Poiché tutti abbiamo pregiudizi, disse O’Neil, quegli algoritmi potrebbero facilmente codificare il sessismo o qualsiasi altro tipo di intolleranza, tanto più se sviluppati da aziende private per scopi privati. Né ha senso aspettarsi che la concorrenza e il libero mercato possano risolvere i problemi di partenza: «ci sono un sacco di soldi da fare in modo scorretto».

Nel 2019, in un articolo sul New Yorker, per inquadrare più intuitivamente ciò di cui parliamo quando parliamo di prevedibilità, la matematica e studiosa di modelli di comportamento umano Hannah Fry ridimensionò in parte le crescenti preoccupazioni e aspettative intorno alla capacità di prevedere i comportamenti individuali sulla base di profilazioni ottenute dall’analisi di grandi quantità di dati. E citò una serie di esempi estremi ma utili a cogliere l’irriducibile margine di incertezza che emerge quando dal discorso su «chi siamo, come entità collettiva» si cerca di passare al comportamento del singolo.

casa vendita

Westwood, Massachusetts, 6 ottobre 2020 (AP Photo/Steven Senne)

Nel 1965, l’avvocato francese André-François Raffray stipulò con una donna di 90 anni un contratto in base al quale si impegnava a pagare 250 franchi al mese fino alla morte della donna, in cambio della nuda proprietà dell’appartamento di Arles in cui quella donna abitava. All’epoca l’aspettativa di vita delle donne francesi era di 74,5 anni, e Raffray – allora quarantasettenne – pensò di aver fatto indubbiamente un buon affare. Sfortunatamente per lui, quella donna era Jeanne Calment, la persona più longeva della storia di cui si abbia notizia certa. Sopravvisse altri 32 anni dopo la firma del contratto, abbastanza da sopravvivere anche a Raffray, che morì a 77 anni dopo aver pagato più del doppio del valore di mercato un appartamento in cui non abitò mai.

Raffray «imparò a proprie spese che le persone non sono ben rappresentate dalla media», scrive Fry. Nei grandi gruppi, la variabilità naturale tra gli esseri umani tende ad annullarsi: «lo zig casuale viene controbilanciato dallo zag casuale, e questo significa che non possiamo parlare con certezza dell’individuo». Nonostante le «grandi promesse dei big data», conclude Fry, l’incertezza resta così abbondante da rendere le singole vite umane infinitamente imprevedibili.