Come Facebook ci tiene su Facebook

Will Oremus racconta su Slate la versione di Facebook sugli interventi che hanno irritato tanti utenti e che però "funzionano"

di Will Oremus - Slate

(Photo by Omar Havana/Getty Images)
(Photo by Omar Havana/Getty Images)

Ormai sappiamo tutti che Facebook non è cool.
E però per qualche ragione è più popolare che mai. Mercoledì la società ha annunciato che la sua crescita continua ad accelerare, non solo nei semplici numeri degli utenti, ma anche nella quantità di uso del servizio. Ogni giorno, ha detto Mark Zuckerberg, il 63% degli 1,28 miliardi di utenti di Facebook accede al sito. E la quota di utenti che lo usa almeno sei giorni alla settimana ha superato il 50%.

Come è possibile che Facebook diventi più attraente ogni giorno che passa, invece che meno? È possibile, perché Facebook sa cosa ti piace, ed è sempre più bravo a capirti continuamente.

Mentre impegna lavoro e dati – i tuoi dati – nelle sue inserzioni mirate, Facebook lavora altrettanto a immaginare quali dei post dei tuoi amici vorrai vedere ogni volta che apri l’app. Gli inserzionisti saranno quelli che mettono le ciliegine sulla torta, ma l’interesse più pressante di Facebook è ottenere che gli utenti tornino e tornino. Se fallisce in questo, crolla il suo modello di business basato sulle inserzioni.

Quindi come fa Facebook a sapere cosa ci piace? Ne ho parlato di recente con Will Cathcart durante una visita alla sede di Facebook a Menlo Park: Cathcart dirige il team di gestione del prodotto che lavora sul newsfeed. La risposta offre lezioni per il futuro dell’apprendimento delle macchine, dei media, e di internet in generale.

Facebook ha introdotto il “newsfeed” nel 2006, ma il tasto “mi piace” è arrivato solo un anno dopo. Solo con quello ha ottenuto un modo per capire quali post ti interessano davvero, basato su quello che tu e i tuoi amici etichettate in quel modo. Da allora, il newsfeed è passato a essere da semplice lista cronologica a strumento capace di apprendere, con i post classificati nella timeline in base alla probabilità che tu li trovi interessanti. L’obiettivo è assicurarsi che, per esempio, la prima foto del neonato del tuo migliore amico abbia la precedenza sul punteggio ottenuto a Ruzzle da un lontano conoscente.

Per un po’ i like – assieme ad alcuni altri criteri, come le condivisioni, i commenti e i clic – hanno funzionato come misura del coinvolgimento. Ma erano lontani dall’essere perfetti, ammette Cathcart. Un meme di una foto buffa poteva ottenere migliaia di like immediati, mentre un approfondito articolo sul conflitto in Ucraina sarebbe stato punito dall’algoritmo di Facebook perché non si prestava a uno sbrigativo apprezzamento. Il risultato fu che i newsfeed degli utenti si riempirono dell’equivalente social del cibo spazzatura. Facebook era divenuto il veicolo perfetto di cose che la gente “piaceva”, invece che di cose che alla gente piacevano.

Per giunta, molte delle cose che migliaia di persone “piacevano” risultavano essere quelle che altre migliaia di persone davvero odiavano. Tra queste i post con titoli attira-click e attira-like ma che portavano a pagine piene di spam e pubblicità invece dei contenuti promessi dal titolo. Ma in assenza di un tasto “non mi piace” gli algoritmi di Facebook non avevano modo di valutare quali contenuti infastidissero gli utenti. Alla fine, circa un anno fa, Facebook riconobbe di avere un problema di “qualità dei contenuti”.

Che non è un problema solo di Facebook. Riguarda ogni azienda o prodotto che sfrutta l’analisi dei dati quantitativi per orientare le proprie scelte. E come lo si risolve? Per alcuni la risposta è nella moderazione delle informazioni basate sui dati con una salutare dose di intuizione umana. Ma il newsfeed di Facebook opera su una scala e su un livello di personalizzazione che rendono implausibile l’intervento umano. Quindi per Facebook la risposta fu di iniziare a raccogliere nuovi tipi di dati che offrissero informazioni che i vecchi – like, commenti, condivisioni e clic – non davano.

(Cosa ha fatto Facebook col vostro newsfeed)

Tre fonti di dati in particolare aiutano Facebook a riconfezionare i suoi algoritmi per mostrare agli utenti i generi di post che li incoraggeranno a tornare su Facebook: sondaggi, test A/B, e dati sul tempo trascorso dagli utenti fuori da Facebook quando cliccano su un dato post e su quando tornano.

I sondaggi possono porre domande che le altre metriche non riescono a fare, i test A/B offrono a Facebook un modo di verificare al microscopio le proprie ipotesi. Ogni volta che i suoi sviluppatori fanno un intervento sugli algoritmi, Facebook lo prova mostrandolo a una piccola percentuale di utenti. In ogni momento, spiega Cathcart, ci possono essere mille diverse versioni di Facebook in funzione per diversi gruppi di utenti. Facebook raccoglie dati su ciascuna, per vedere quali cambiamenti generano reazioni positive e quali no.

Per esempio, Facebook ha di recente introdotto una serie di modifiche progettate per limitare la proliferazione di “acchiappalike”: articoli o post che chiedono esplicitamente agli utenti di cliccare sul tasto like per ottenere posizionamenti migliori nei newsfeed. Alcuni siti di news si sono preoccupati che Facebook stesse facendo valutazioni inesatte sulle preferenze degli utenti: ma Facebook aveva già  testato le novità su un piccolo gruppo di utenti prima di annunciarle pubblicamente. «Avevamo notato rapidamente che quelli a cui avevamo offerto quei miglioramenti cliccavano su più articoli nel loro newsfeed», spiega Cathcart.

Quando gli utenti cliccano su un link nel loro newsfeed, dice Cathcart, Facebook studia attentamente cosa succede dopo. «Se sei uno che ogni volta che vede un articolo del New York Times non solo ci clicca ma lascia Facebook e sta via per un po’ prima di ritornare, possiamo probabilmente concludere che tu trovi più importanti gli articoli del New York Times, anche se non clicchi “mi piace”».

Contemporaneamente, Facebook ha iniziato a differenziare maggiormente tra i like che un post riceve prima che gli utenti ci clicchino e quelli che riceve dopo che ci hanno cliccato. Molte persone possono cliccare immediatamente sul tasto “mi piace” solo dopo aver visto un titolo, o un indizio che si avvicina alle loro simpatie politiche. Ma se a cliccare “mi piace” o condividere l’articolo dopo averlo letto sono davvero pochi, questo può indicare a Facebook che l’articolo non ha funzionato.

Qualcuno ha accusato Facebook di avere preso di mira alcuni siti e favorito altri, con le sue modifiche del newsfeed. Non è così, insiste Cathcart. Facebook definisce i contenuti di maggiore qualità non in base a una classificazione oggettiva, ma secondo i gusti degli utenti. Se ti piace un sito come Upworthy e il New York Times ti annoia, allora l’obiettivo di Facebook è di mostrarti più il primo che il secondo.

Ogni volta che accedi a Facebook col tuo account, l’algoritmo del sito deve scegliere tra circa 1500 post possibili – in media – da mettere in testa al tuo newsfeed. «Per noi il test perfetto sarebbe farti sedere a guardare 1500 post possibili e chiederti di metterli in ordine secondo cosa trovi più importante per te. L’obiettivo perfetto sarebbe quello». Ma è un test un po’ troppo analitico, anche per Facebook.

Per molte persone, sapere che i computer di Facebook stanno scegliendo per loro quali storie mostrargli – e quali nascondere – resta sgradevole. Avidi utenti di Twitter esaltano la timeline esattamente cronologica di quella piattaforma, che affida agli utenti di curare e scegliere le proprie liste di persone da seguire. Ma c’è un motivo se i dati di “engagement” di Facebook continuano a crescere, mentre quelli di Twitter sono stagnanti. Per quanto ci piaccia pensare che siamo in grado di fare meglio degli algoritmi, la verità è che nessuno di noi ha il tempo di filtrare 1500 post al giorno. E quindi, anche se ci irrita il paternalismo di Facebook, continuiamo a tornarci.

E magari, se Facebook continua a migliorare nella comprensione di quel che ci piace davvero piuttosto che di quel che “piaciamo” su Facebook, anche Facebook comincerà a piacerci un po’ più che adesso.

© Slate 2014