La campagna di trasparenza di Facebook non sta andando benissimo

Sta provando a dimostrare il suo impegno contro la disinformazione, ma alcune recenti rivelazioni ne hanno compromesso la credibilità

(AP Photo/Jeff Chiu)
(AP Photo/Jeff Chiu)

Da alcuni mesi l’amministrazione del presidente degli Stati Uniti Joe Biden sta accusando apertamente Facebook di non fare abbastanza per limitare la disinformazione sulla piattaforma – soprattutto su vaccini e coronavirus – e per condividere con maggiore trasparenza dati e statistiche che riguardano la diffusione di notizie false. Lo scorso luglio Biden aveva detto che le piattaforme come Facebook stavano «uccidendo persone» permettendo la disinformazione sui temi della pandemia.

Pubblicamente Facebook ha sempre negato ogni responsabilità, sostenendo di aver rimosso oltre 18 milioni di contenuti con notizie false dall’inizio della pandemia. Allo stesso tempo ha avviato una grande campagna di trasparenza, con diverse iniziative per dimostrare anche al pubblico più ampio il suo impegno contro la disinformazione. La campagna però non sta andando benissimo: di recente alcune importanti rivelazioni – prima del New York Times e di Politico, poi del ricercatore italiano Fabio Giglietto –hanno messo in dubbio la credibilità della trasparenza di Facebook e creato imbarazzo all’azienda e ai suoi rappresentanti.

I tentativi di Facebook di migliorare la propria immagine su questo fronte erano iniziati almeno tre anni fa, quando Mark Zuckerberg – il fondatore e amministratore delegato dell’azienda – aveva reso disponibili per alcuni gruppi di ricercatori una serie di dati e informazioni che non sarebbero stati altrimenti accessibili con i tradizionali strumenti di analisi. Per fare un esempio, una delle novità maggiori era quella di poter accedere ai numeri su click e visualizzazioni di oltre 54 milioni di link condivisi su Facebook in tutto il mondo, come ha spiegato al Post Fabio Giglietto, professore associato di Internet Studies all’università di Urbino. Giglietto è esperto di analisi dei social media ed era tra i ricercatori che hanno avuto accesso ai dati, che riguardavano il periodo tra gennaio 2017 e febbraio 2021.

Di norma, relativamente a quei post sarebbero state comunicate informazioni solo su interazioni, condivisioni e poco altro: sapere quanti utenti unici hanno aperto un certo link, invece, è un’informazione preziosa per sapere quanto una notizia – e specialmente una notizia falsa – abbia avuto diffusione e quante persone abbia potuto influenzare.

Sono quindi dati potenzialmente molto importanti, e da quando sono disponibili molti esperti li hanno usati per loro ricerche o tesi di dottorato. Il mese scorso però Giglietto ha scoperto che le informazioni ricevute erano sbagliate, e non di poco, perché prendevano in considerazione soltanto circa metà della popolazione statunitense (mentre erano corrette quelle sugli altri paesi). Una portavoce di Facebook, Mavis Jones, ha spiegato che si è trattato di un errore tecnico: le informazioni riguardavano solo la metà di popolazione degli Stati Uniti che su Facebook aveva espresso preferenze politiche – per esempio mettendo “like” alla pagina di un partito – ed escludevano tutte le persone che non si erano connotate politicamente sul social network.

Il fondatore di Facebook Mark Zuckerberg (AP Photo/Marcio Jose Sanchez)

L’errore di Facebook è stato molto criticato, soprattutto dai professori e ricercatori che avevano lavorato per anni su quelle informazioni. Questa settimana l’azienda si è scusata ufficialmente in una email inviata ai ricercatori coinvolti e alcuni rappresentanti del team che si occupa della trasparenza di Facebook hanno poi ribadito – non senza imbarazzi – il proprio dispiacere in una telefonata con i ricercatori. Le scuse non hanno risparmiato a Facebook accuse che i dati fossero stati omessi di proposito per compromettere i risultati delle ricerche.

Per quanto possa sembrare strano che una società come Facebook faccia un errore così banale, secondo Giglietto la versione per cui l’errore sarebbe stato fatto di proposito è molto improbabile: «Facebook non avrebbe avuto alcun interesse a mostrare un dataset di soli utenti che frequentano la piattaforma con intenti politici, perché avrebbe mostrato un mondo più polarizzato e con una diffusione maggiore di notizie false». Insomma, sarebbe stato contro i suoi interessi, perché con ogni probabilità la disinformazione sarebbe risultata maggiore di quanto non fosse in realtà.

Il problema è che negli Stati Uniti la credibilità di Facebook sulla trasparenza era già stata recentemente messa in discussione da altri due grossi avvenimenti precedenti.

Il primo è strettamente legato a questa vicenda e riguarda un’altra parte della campagna di trasparenza di Facebook, la più recente, avviata verso la metà di agosto. Sempre per mostrare il proprio impegno contro la disinformazione, l’azienda aveva deciso di rendere pubbliche le classifiche dei post più visti nel secondo trimestre del 2021, da aprile a giugno. Nonostante le ragioni di questa decisione non fossero esplicite, il New York Times e altri avevano scritto che si trattava di una risposta alle pressioni del governo statunitense sui mancati controlli alla diffusione di disinformazione. Un rappresentante di Facebook, Guy Rosen, aveva detto che il social network aveva cominciato il suo «lungo percorso» per diventare «di gran lunga la piattaforma più trasparente di internet».

Dopo la pubblicazione però il New York Times aveva scoperto che Facebook in realtà aveva in programma di pubblicare anche le classifiche riguardanti il primo trimestre del 2021, cioè quelle da gennaio a marzo, ma aveva deciso all’ultimo di non farlo per la presenza in quelle classifiche di informazioni scomode per l’azienda. In quel report, scrive il New York Times, il link più visitato era una notizia con un titolo che suggeriva che il vaccino contro il coronavirus avesse causato la morte di un medico in Florida.

A quel punto Facebook ha dovuto pubblicare anche le classifiche su gennaio-marzo. Ed era stato peraltro confrontando quei dati con quelli forniti ai ricercatori per il periodo gennaio 2017-febbraio 2021 che Giglietto aveva scoperto l’errore anche negli altri dati.

Il secondo avvenimento che di recente ha contribuito a peggiorare la reputazione di Facebook sulla trasparenza invece risale alla fine di agosto: Politico aveva scoperto che su CrowdTangle – la piattaforma di proprietà di Facebook che fornisce dati per analizzare le attività sui social network – mancavano migliaia di post pubblicati intorno al 6 gennaio, giorno dell’attacco al Congresso. Diversi accademici avrebbero voluto analizzarli per capire quali contenuti legati a quell’evento Facebook avesse ritenuto di bloccare, ma non è stato possibile: ancora una volta l’azienda ha parlato di “errore tecnico” e ha poi detto di averlo sistemato, ma secondo Politico ci sono ancora migliaia di post mancanti e non è chiaro se e quando torneranno pubblici.