Perché Facebook non fa niente contro le bufale

di Will Oremus – Slate

Il suo algoritmo decide già cosa mostrare e cosa no nel suo Newsfeed, ma per ora non ha fatto molto per evitare che circolino notizie false e leggende metropolitane

Macaulay Culkin è morto. Mangiare limoni cura il cancro. E questo video incredibile dimostra che nessun aereo ha veramente colpito le Torri Gemelle, l’11 settembre.

Questo se credete a ciò che leggete su Facebook: cosa che una quantità spaventosa di gente sembra fare. Un recente sondaggio dell’istituto Pew ha scoperto che il 30 per cento degli americani adulti usa i social network per informarsi, rendendoli i media più influenti del paese. C’è molta più gente che consulta Facebook, ogni giorno, rispetto a quella che legge il New York Times o guarda la CNN.

Eppure, il flusso di notizie di Facebook rimane un ambiente fertile per le bufale, le notizie false e le teorie complottiste. Alcune, come la periodica “scoperta” che la data di oggi è quella mostrata nella macchina del tempo di “Ritorno al futuro II”, sono relativamente innocue. Altre sono più ingannevoli, come la notizia secondo la quale per ogni persona che condivide questa foto di un bambino malato di cancro Facebook farà una donazione alla sua famiglia per aiutarla a sostenere le spese mediche. E alcune sono dure a morire. Questa settimana, è circolata una falsa notizia sulle stesse politiche sulla privacy di Facebook, diventata virale per la terza volta nel giro di due anni.

Dal punto di vista economico, i media hanno poco da lamentarsi: un breve articolo che smonta una certa bufala può essere condiviso decine di migliaia di volte, facendo ottenere al sito un po’ di traffico “facile”. Ma dal punto di vista di un giornalista – per non dire di quello di un cittadino – è desolante realizzare che puoi urlare la verità ai quattro venti, senza poi fare davvero la differenza per contrastare le falsità che continuano a circolare. E la conformazione stessa della sezione notizie (Newsfeed) di Facebook ha una qualche responsabilità in tutto questo.

OK, Facebook non ha inventato le bufale virali. È solo il contesto migliore, nel 21esimo secolo, per la diffusione di leggende metropolitane che in altri tempi sarebbero circolate col passaparola, tramite i giornali scandalistici, o grazie a una catena di Sant’Antonio. Facebook, però, allarga le possibilità della disinformazione fornendole una scala e una rapidità che superano quelle dei mezzi precedenti. La sua sezione notizie – la pagina contenente aggiornamenti, foto e link esterni condivisi dai nostri amici, per intenderci – è il prodotto di un preciso algoritmo che Facebook ha sviluppato per perfezionare la partecipazione di ciascun utente: privilegiando, cioè, i post che attraggono l’attenzione delle persone e li spingono ad aprire link, cliccare “Mi piace”, o a condividere. C’è un solo problema: le bufale, le truffe e le teorie complottiste sono realizzate proprio per ottenere quell’effetto. La realtà, a volte, può essere ancora più strana della finzione, ma su Facebook la finzione diventa spesso più virale della realtà.

Non dev’essere per forza così. Ho già scritto in passato di come alcuni algoritmi ad auto-apprendimento possono aiutare a identificare le notizie false che circolano sui social network. Essendo dotato di un software di questo tipo fra i più avanzati del pianeta, il flusso di notizie potrebbe facilmente diventare una potente forza schierata dalla parte della verità, se solo Facebook volesse: molto più di alcuni suoi rivali come Twitter, impedito dalla sua stessa struttura dettata dall’ordine cronologico degli aggiornamenti. Quindi, perché non lo fa?

Facebook vi dirà che distinguere il vero dal falso non fa parte dei suoi compiti. L’obiettivo del flusso di notizie, spiega la società, non è di separare ciò che è giusto da ciò che è sbagliato o ciò che è bello da ciò che è brutto, secondo alcuni standard oggettivi. Il software è stato progettato per separare ciò che è interessante da ciò che non lo è, per ciascun utente di Facebook, nella logica di dare a ciascuno il contenuto che desidera. Ciò che l’utente desidera, ha scoperto Facebook, è sapere di cosa stanno parlando i propri familiari, amici e conoscenti: a prescindere che sia la foto carina di un neonato, un fatto di attualità, un “trucco” per aprire una bottiglia di vino senza cavatappi o una teoria complottista.

Jessie Baker, un portavoce della società, mi ha detto: «Il nostro obiettivo è quello di mettere in contatto le persone con i contenuti ai quali sono più interessati, senza dare priorità ad un punto di vista piuttosto che ad un altro». C’è del buon senso, in questo: Facebook non ha voglia di ergersi ad arbitro della veridicità di tutto quello che circola al proprio interno, e dubito che gli stessi utenti apprezzerebbero la cosa. Dopo tutto, stiamo parlando di una società di tecnologia, non di un giornale che esegue del fact checking sulle notizie.

Detto questo, è una falsa dicotomia argomentare che Facebook debba assumere legioni di moderatori per sorvegliare i propri utenti oppure non fare nulla ed autoassolversi dai contenuti che circolano proprio grazie agli utenti. Come ha spiegato estesamente Adrian Chen in un bell’articolo su Wired, Facebook impiega già allo scopo diverse squadre di dipendenti nelle Filippine, incaricati di rimuovere dal sito i contenuti pornografici o illegali. In teoria, già che ci sono, potrebbero anche eliminare qualche bufala: sarebbe chiaramente un lavoro difficile e controverso, e un intervento di Facebook potrebbe non essere necessariamente la cosa migliore.

Fortunatamente, c’è un modo più semplice e migliore, per Facebook, di modificare i propri parametri di modo da dare meno spazio alle bufale (se solo volesse). Si tratta di una pratica che Facebook adotta già per altri obiettivi, per stimolare ad esempio la partecipazione degli utenti. E non prevede un cambio di filosofia da parte di Facebook. Tutto quello che serve è che Facebook allarghi la sua definizione di “qualità”, e che di conseguenza sistemi un pochino il suo algoritmo per la selezione delle notizie.

Negli scorsi due anni, Facebook ha portato avanti una campagna per dare la priorità ai “contenuti di alta qualità” nel proprio flusso di notizie. Più precisamente, però, la definizione di “alta qualità” continua ad evolvere: l’idea di fondo, però, è che il numero di clic, “Mi piace”, condivisioni e commenti che un dato post riceve dai tuoi amici e da altre persone non siano gli unici indicatori della sua validità in funzione del flusso.

Facebook ha capito che i Newsfeed dei suoi utenti stavano diventando pieni di quelle che chiama “esche per i clic” (clickbait): post i cui titoli sensazionalistici creano partecipazione ma che nascondono contenuti diversi rispetto a quelli promessi. Per combattere questa tendenza, Facebook ha cambiato alcuni parametri dell’algoritmo, e ha incluso per esempio il tempo impiegato da un certo utente per leggere un post, e quante volte torna indietro per condividerlo o cliccare “Mi piace” dopo averlo visto.

Si racconta che Mark Zuckerberg si fosse convinto di dover modificare l’algoritmo dopo aver notato che nella sua sezione notizie il compleanno di un suo collega aveva preceduto la nascita di suo nipote. Qual era il problema? L’algoritmo tendeva a privilegiare contenuti leggeri provenienti da alcuni suoi contatti più frequentati rispetto a importanti eventi nella vita dei propri amici e familiari. Facebook ha risolto il problema facendo sì che un post che provoca nei commenti la parola “congratulazioni” raggiunga un numero più ampio di utenti.

Un approccio del genere potrebbe funzionare anche per eliminare le bufale virali, come la redattrice scientifica di Slate Laura Helmuth mi ha detto recentemente. Mettiamo che un dato post provochi numerosi commenti che contengono link a siti che smentiscono le bufale oppure che mostrano la parola “bufala” o “falso”. L’algoritmo di Facebook potrebbe prenderlo come un segnale che la circolazione di quel post è sospetta. Non dovrebbe però essere costretta a cancellarlo, ma magari a trattarlo come un post dal contenuto meno virale, che quindi può anche non trovarsi in cima al nostro flusso. Gli amici e familiari della persona che ha condiviso quel post avrebbero la possibilità di istruirlo o di chiarirgli le idee in merito. E sarebbe più difficile che quel contenuto faccia il giro di Facebook.

Ho sottoposto l’idea a Greg Marra, che in Facebook si occupa del flusso di notizie, in una recente conversazione riguardo un altro degli sforzi che la società sta compiendo per elevare la qualità dei propri contenuti. Sembrava vagamente interessato, ma ha detto che sarà difficile che una cosa del genere ottenga una priorità immediata: «non abbiamo provato a fare niente intorno alle cosiddette verità oggettive. È un campo difficile, e probabilmente non è il problema più grave che vorremmo risolvere».

Marra potrebbe smentirmi, ma per me questo conferma che volendo Facebook potrebbe rendere il suo algoritmo meno incline a favorire le bufale. Nell’ottica di Facebook, prendere provvedimenti riguardo le bufale è giustificato dalle lamentale degli utenti, che hanno detto a Facebook di essere stufi dei titoloni che poi si rivelano falsi. In apparenza non c’è stato grande interesse da parte della società riguardo smettere di mostrare notizie false nel flusso: ma io sospetto che questa sia una di quelle cose che erode la credibilità di una piattaforma – peggiorando l’esperienza e la fiducia degli utenti – in termini che non sono misurabili con gli attuali parametri.

Facebook, comunque, ha sviluppato silenziosamente alcune pratiche che potranno bilanciare la diffusione dei contenuti dannosi. Per esempio, alcuni post vengono oggi mostrati assieme a delle “notizie correlate”, in mezzo alle quali a volte si trovano articoli che smontano il contenuto del link principale. Ad ogni modo, Facebook ha specificato che l’obiettivo dell’introduzione delle correlate non è quello di correggere la notizia principale: se un certo articolo ci finisce dentro, è perché è stato condiviso estesamente (Facebook, difatti, è stato anche criticato per avere inserito bufale nelle notizie correlate).

Recentemente, Facebook ha inoltre cominciato a sperimentare una specie di tag associato agli articoli satirici, utilizzato per articoli che provengono da siti falsi. È una cosa che può funzionare nei casi di siti che passano il tempo a inventare notizie, ma che sembra un po’ invasiva quando si occupa di siti che fanno satira per davvero, come The Onion.

È vero: Facebook, proprio come il mondo reale, contiene fra i suoi utenti un sacco di gente ingenua, e forse il modo migliore per evitare le bufale sarebbe semplicemente quello di eliminarli dai propri amici. Ma Facebook, al contrario di Twitter, è incentrato sulle relazioni che le persone hanno nella vita reale. E persino le persone intelligenti, a volte, possono essere ingannate da una notizia falsa, specialmente quando viene mostrata in mezzo a una valanga di altre notizie vere e dietro un tacito apprezzamento da parte dei propri amici.

Per concludere: sì, gli utenti di Facebook possono comportarsi in maniera stupida, ma Facebook può fare molto di più per aiutarli.

©Slate 2014

Mostra commenti ( )