Trump ha vinto grazie a Facebook?

di Emanuele Menietti – @emenietti

Se lo stanno chiedendo in molti, discutendo del ruolo del social network nella grande diffusione di notizie false – soprattutto su Hillary Clinton – durante la campagna elettorale

(Eduardo Munoz Alvarez/Getty Images)

La vittoria di Donald Trump alle elezioni presidenziali negli Stati Uniti richiederà anni di studi – politici e sociologici – per essere compresa nella sua interezza. Gli articoli e le analisi pubblicate sui giornali negli ultimi giorni dimostrano l’enorme complessità del tema, e al tempo stesso il rischio di ridurlo a stereotipi o a chiacchiere da bar: hanno prevalso gli stupidi, ha vinto il malcontento generale, hanno votato solo i bianchi, è colpa dei giornalisti, dei social network e via discorrendo. La vittoria di Trump è queste cose e molto altro, eppure un cospicuo numero di analisi si sta concentrando sul ruolo di Facebook e sulla sua incapacità di tenere sotto controllo le notizie false condivise dai suoi utenti durante la campagna elettorale, che avrebbero favorito almeno in parte l’elezione di Trump, a scapito di Hillary Clinton. Il tema è discusso da tempo ed è legato al cosiddetto fenomeno della “democrazia post-fattuale“, che finora aveva avuto in Brexit il caso più emblematico.

Le notizie false su Facebook
Il problema delle notizie false su Facebook esiste da tempo e da prima della candidatura di Donald Trump nel luglio del 2015, ma è diventato ancora più significativo e rilevante negli ultimi mesi con la proliferazione di siti che hanno pubblicato bufale di ogni tipo, quasi sempre contro Clinton. Secondo Olivia Solon del Guardian, la quantità di “false notizie e disinformazione ha interessato le elezioni del 2016 su una scala senza precedenti” a tal punto da sostenere che: “Invece di mettere in contatto le persone – l’obiettivo spesso enfatizzato da Facebook – l’aspra polarizzazione sul social network negli ultimi 18 mesi suggerisce che Facebook stia avendo un ruolo nel dividere il mondo”.

Le critiche sono soprattutto rivolte alla sezione Notizie (Newsfeed), la parte più in evidenza di Facebook dove sono mostrati i post dei propri amici, con i link che hanno condiviso o commentato, insieme agli articoli segnalati dalle Pagine dei siti d’informazione. Non sono mostrati in ordine cronologico come avviene su Twitter, ma con una gerarchia stabilita da un discusso algoritmo sulla base dei gusti dei singoli utenti e delle cose su cui di solito mettono “Mi piace” o cliccano ogni giorno. Facebook sostiene da sempre che questa soluzione permette di offrire un’esperienza più personalizzata, ma da anni il funzionamento della sezione Notizie è criticato perché di fatto rende meno probabile che si vedano post e notizie di chi la pensa diversamente da noi. I più critici sostengono che Facebook crei “micro-bolle” intorno a ogni utente, nelle quali sono escluse le cose che non gli piacciono e in cui è più semplice ricevere “Mi piace” e commenti da chi la pensa allo stesso modo (le reazioni degli altri sono la principale forma di ricompensa per chi cerca approvazione e rinforzi positivi nella sua esperienza sul social network: più ce ne sono più aumentano le probabilità che un utente stia a lungo su Facebook e visualizzi più pubblicità).

La sezione Notizie esisteva già alle elezioni presidenziali del 2012, ma in quattro anni è cambiata sensibilmente e ha assunto una maggiore rilevanza nella vita di molte persone, considerato che Facebook conta ormai più di 1,7 miliardi di iscritti in tutto il mondo. Nella primavera di quest’anno, il social network ha ricevuto molte critiche quando si è scoperto che per gestire la sua sezione “Trending” – che mostra un elenco dei contenuti più di tendenza negli Stati Uniti – una redazione di poche persone si basava su una lista limitata di fonti d’informazione, legate per lo più alla stampa di area progressista e con una scarsa rappresentanza di quella conservatrice. Facebook ha risposto alle accuse organizzando incontri con delegazioni di conservatori e ha infine rimosso la redazione, rendendo completamente automatica la gestione degli argomenti di tendenza tramite un algoritmo. La scelta avrebbe dovuto teoricamente riequilibrare la situazione (ammesso ci fossero squilibri), ma ha peggiorato le cose rendendo più probabile la proliferazione di notizie false, che gli algoritmi da soli faticano a identificare e a rendere meno visibili su Facebook.

Secondo un’analisi pubblicata su BuzzFeed e coordinata da Craig Silverman, tra i più competenti studiosi delle bufale online, il 38 per cento dei post pubblicati da tre delle più grandi pagine conservatrici su Facebook e vicine al Partito Repubblicano contengono “notizie false o ingannevoli”, a fronte del 19 per cento riscontrato nelle tre principali pagine vicine al Partito Democratico. Queste fonti parlano principalmente ai sostenitori dei due schieramenti, che non solo si fidano, ma vogliono proprio credere nei post che leggono per rinforzare le loro convinzioni politiche. Una notizia falsa ha la possibilità di diffondersi molto rapidamente, tra “Mi piace” e condivisioni, e di raggiungere centinaia di migliaia e in molti casi milioni di persone.

Trump e la promozione delle notizie false
Nel caso dei Repubblicani, le notizie false su Facebook sono circolate ancora di più proprio a causa dello stesso Trump, che le ha utilizzate spesso nei suoi comizi dando loro maggiore autorevolezza. Politifact, il principale e più autorevole sito di verifica dei fatti (fact-checking) negli Stati Uniti, ha stimato che nel corso della campagna elettorale Trump abbia detto nel 70 per cento dei casi menzogne più o meno gravi, molte delle quali basate proprio sugli articoli dei siti di bufale conservatori che riscuotono molto successo su Facebook, senza ricevere penalizzazioni da parte dei suoi algoritmi. Oltre a rafforzare nell’elettorato convinzioni sbagliate e non basate sui fatti, grazie alla loro evidenza nella sezione Notizie i siti di bufale ricevono milioni di visite che si traducono in ricavi grazie alle pubblicità. E proprio la prospettiva di aumentare gli incassi porta a ulteriori distorsioni, con la pubblicazione di notizie sempre più clamorose e inventate per attirare nuovi clic.

Fil Menczer, docente presso l’Indiana University, ha calcolato che passano circa 13 ore tra la diffusione di una notizia falsa e quella di un articolo che la smonta, un’eternità per i ritmi frenetici dei social network. In 13 ore una bufala fa in tempo a diffondersi su più profili e Pagine e a essere vista da milioni di persone. Molto spesso, spiega Menczer, raggiunge una tale inerzia da sovrastare e nascondere gli articoli che spiegano come stanno effettivamente le cose. Il fenomeno delle notizie false esisteva naturalmente prima dei social network, ma la loro capacità di diffondersi era limitata al passaparola o a sistemi di condivisione più diretti, come le email e i forum di discussione, e i media avevano più possibilità di filtrarle e smontarle prima che raggiungessero l’opinione pubblica. “Ora il filtro siamo noi”, spiega Menczer, “ma non è il nostro lavoro e quindi non siamo bravi a farlo. Poi interviene l’algoritmo di Facebook ad amplificarne gli effetti”.

La difesa di Mark Zuckerberg
Mark Zuckerberg, il CEO di Facebook, ha respinto le critiche circolate nelle ultime ore e che attribuiscono alla sua azienda parte della responsabilità nell’elezione di Donald Trump. Durante un intervento alla conferenza Technonomy a Half Moon Bay, California, ha detto che ci sono sicuramente margini per migliorare gli algoritmi, ma che è assurdo dare la colpa a Facebook: «È un’idea piuttosto da matti pensare che Facebook abbia condizionato in qualsiasi modo le elezioni». Secondo Zuckerberg, le persone votano sulla base delle loro esperienze: chi sostiene che in molti abbiano votato in un certo modo a causa delle notizie false dimostra “una profonda assenza di empatia” per i sostenitori di Trump.

Zuckerberg ha spiegato che gli algoritmi della sezione Notizie sono rivisti periodicamente e che, dagli studi condotti finora, non è mai emerso un particolare problema: «Il filtro principale del sistema non è il fatto che non ci siano determinati contenuti, ma che quando li vedono le persone non ci cliccano sopra». Zuckerberg aveva sostenuto la stessa cosa anche nei mesi scorsi prima delle elezioni, ma dopo la vittoria di Trump questa posizione è stata considerata ancora più debole e inconsistente. Se da un lato è vero (sono misurabili) che le persone meno interessate non cliccano sulle notizie false nella loro sezione Notizie, dall’altro è altrettanto vero che in molti si accontentano di leggere titoli e anteprime dei link sul social network per farsi un’idea di una notizia, soprattutto se rafforza le loro convinzioni. Molti “Mi piace” sono messi a un’anteprima di un articolo su Facebook senza che poi lo stesso sia letto. Alcune pagine sono inoltre create con nomi simili a quelli dei grandi media, con l’obiettivo di trarre più facilmente in inganno gli utenti, facendogli credere di essere una fonte più autorevole.

Facebook poteva fare diversamente?
Max Read sul New York Magazine ha scritto un articolo molto colpevolista intitolato “Donald Trump ha vinto a causa di Facebook”, nel quale dice che milioni di utenti “sono stati esposti o hanno condiviso notizie emozionalmente forti sui loro candidati, perché l’algoritmo di Facebook ha capito dal modo in cui stavano utilizzando il social network che erano alla ricerca di storie di questo tipo”. Secondo Read questo ha portato a evidenti distorsioni della realtà, che alla fine si sono tradotte nel risultato elettorale di martedì notte: il verosimile ha sostituito la realtà e sono mancate le possibilità, per chi aveva meno risorse, di distinguere le cose vere da quelle false. Anche Jay Rosen, docente di giornalismo presso la New York University, è stato molto duro: “Qualsiasi dipendente di Facebook dotato di un mimino di autoconsapevolezza dovrebbe essere molto preoccupato per avere contribuito a questo disastro di civismo”.

Alcuni ex manager di Facebook hanno riconosciuto l’esistenza del problema e l’inefficacia con cui viene affrontato dall’azienda, come ha scritto Bobby Goodlatte: “Breitbart e innumerevoli altri siti conservatori hanno prosperato negli ultimi anni. Sfortunatamente il loro veicolo principale di diffusione è stato Facebook. La sezione Notizie è ottimizzata per fare aumentare il coinvolgimento degli utenti e, come abbiamo potuto constatare durante queste elezioni, le stronzate sono molto coinvolgenti”.

Matthew Ingram, giornalista che da anni si occupa di social media, ha ricordato su Fortune che per identificare le notizie false Facebook pensa che sia sufficiente fare affidamento sugli utenti, che hanno la possibilità di segnalare un post in modo che possa essere poi rivisto dai responsabili del social network, e in casi estremi rimosso. Ma ci sono due problemi non trascurabili: il primo è che se una storia falsa fa da rinforzo a una propria convinzione (o mette in cattiva luce il candidato avversario) difficilmente viene segnalata anche se riconosciuta come una bufala, il secondo è che il metodo di segnalazione è inefficace e macchinoso, e non porta sempre alla rimozione di un dato contenuto.

In passato per risolvere il problema è stato proposto un segno di riconoscimento sui post, qualcosa da inserire per indicare la presenza di una bufala, ma finora i responsabili di Facebook si sono rifiutati di sviluppare un sistema di questo tipo. L’indicazione consentirebbe di non censurare contenuti, anche se palesemente falsi, ma al tempo stesso di dare qualche strumento in più agli utenti per capire che cosa hanno davanti. Altri hanno suggerito di adottare un sistema simile a quello introdotto poche settimane fa da Google per gli articoli segnalati nella sua sezione News: il motore di ricerca ha aggiunto un’etichetta che viene mostrata a fianco degli articoli che fanno fact-checking, e che provengono da fonti affidabili.

Facebook sostiene di non volere intervenire con un giudizio sui contenuti perché non ritiene di essere una “media company”, ma solamente un sistema per mettere in contatto le persone e dare loro la possibilità di condividere ciò che vogliono con i propri amici. Nei fatti, però, Facebook è comunque diventata una media company e il suo ruolo nel selezionare il modo in cui viene rappresentato il mondo per ogni utente è ormai innegabile. I più critici ritengono che quindi dovrebbe applicarsi di più per ridurre la proliferazione delle falsità.

Cosa è falso e cosa è vero
Trovare il giusto equilibrio è comunque molto difficile, soprattutto se per dimostrare di non essere una media company si decide di affidare a un automatismo la verifica dei contenuti. Come ricorda J.K. Trotter su Gizmodo, è praticamente impossibile insegnare a un algoritmo a riconoscere le notizie inaccurate, sia per le ambiguità tipiche del linguaggio (compresi modi di dire e sarcasmo) sia perché spesso i sostenitori di una parte condividono notizie vere provenienti dai loro oppositori definendole falsità, anche se sono fatti verificabili e genuini. Il caso delle email di Hillary Clinton in questo senso è esemplare: il New York Times lo ha trattato come un grande scandalo, con numerose inchieste e approfondimenti, mentre Vox lo ha definito “una stronzata sopravvalutata”. Le indagini dell’FBI non hanno in effetti portato alla formalizzazione di accuse nei confronti di Clinton, ma hanno comunque svelato una certa spregiudicatezza nel gestire informazioni di rilievo pubblico come le attività svolte da segretario di Stato americano.

Dire che l’uso privato delle email di Clinton fosse “sopravvalutato” è, naturalmente, una questione di interpretazione. Ed è sicuramente distante dall’affermare che lo staff di Clinton fosse solito praticare rituali satanici. Definiremmo la seconda una bufala, o un inganno intenzionale, invece di una semplice stronzata. Ma se accettiamo che Facebook non faccia distinzioni, è difficile dire, dal punto di vista dell’utente medio di Facebook, se anche i media affidabili – non un semplice blog creato appositamente nell’Europa dell’est – siano caduti nello stesso meccanismo di falsità e disinformazione.

Trotter ricorda inoltre che per mesi i siti più riconosciuti e affidabili hanno pubblicato su Facebook articoli in cui scrivevano, sulla base dei sondaggi e delle loro valutazioni, che Trump non sarebbe mai diventato presidente. Molti articoli titolavano proprio “Trump non sarà mai presidente”, e come si sarebbe dovuto comportare l’algoritmo in questi casi? Non erano notizie false comparabili a quelle dei siti di bufale, ma c’è da chiedersi se non abbiano comunque condizionato il comportamento di alcuni elettori. Leggendo di continuo che avrebbe vinto Clinton, gli elettori Democratici meno motivati e convinti potrebbero aver scelto di non andare ai seggi, pensando che comunque non ci fossero speranze per Trump.

L’esempio di Trotter è probabilmente estremo nel senso opposto rispetto alle critiche sulla proliferazione di bufale sui social network, ma aiuta a comprendere la difficoltà nello stabilire dove debba essere messo un limite sul piano informativo e se un’azienda come Facebook debba farsi carico di rimuovere e censurare alcuni contenuti. Trovare il giusto equilibrio è molto complicato e a Zuckerberg va comunque riconosciuto di avere accettato alcune critiche, soprattutto negli ultimi mesi, impegnandosi a migliorare il funzionamento della sezione Notizie.

E quindi?
La discussione sul ruolo di Facebook e degli altri social network nell’elezione di Donald Trump è appena iniziata a proseguirà a lungo, e potrà essere davvero proficua solo se ci saranno analisi puntuali dei dati aggregati, per comprendere meglio il comportamento dei milioni di statunitensi che poi sono andati a votare. È innegabile che Facebook abbia influito nelle elezioni, ma per ora non è possibile dire fino a che punto e su quale scala. Gli stessi social network, del resto, sono solo una parte della vita di chi li utilizza e una delle fonti con cui si formano un’idea sul mondo che li circonda. L’elettorato negli Stati Uniti è molto vario e ci sono altre variabili da tenere in considerazione, dalle condizioni sociali ed economiche all’età, passando per le inclinazioni dei singoli e le loro convinzioni. Questo non significa trascurare il ruolo di Facebook o assolverlo completamente: informarsi e capire le cose costa fatica, i social network dovrebbero concorrere a rendere il processo meno faticoso, non il contrario.

Mostra commenti ( )