Il fact checking sui social serviva a qualcosa?
Non molto, soprattutto con i contenuti divisivi, ma non significa che sia una pratica inutile o che l’alternativa delle community notes sia per forza meglio

Il 7 gennaio il capo di Meta Mark Zuckerberg ha annunciato che negli Stati Uniti i contenuti pubblicati sui social network della sua società, Facebook e Instagram, non saranno più sottoposti a un servizio di fact checking, uno strumento sulla cui efficacia si discute da anni. Affidato a organizzazioni indipendenti, serviva a verificare la veridicità dei contenuti ed era stato introdotto poco dopo la vittoria di Donald Trump alle elezioni presidenziali statunitensi del 2016. Fu un tentativo di limitare la diffusione di notizie false su Facebook, da molti considerate all’epoca uno strumento di propaganda politica e uno dei fattori del successo delle destre reazionarie.
È difficile stabilire se in questi anni il fact checking di Meta abbia limitato la diffusione di notizie false: prima di tutto perché manca una controprova. Non sembra comunque aver limitato più di tanto i consensi di Trump, la cui vittoria alle presidenziali del 2024 è stata utilizzata dai critici del fact checking come prova del fallimento di chi riteneva utile rincorrere ogni sua affermazione falsa per sbugiardarlo. Ed è probabilmente questa una delle ragioni per cui l’annuncio di Zuckerberg ha suscitato reazioni meno indignate di quanto forse lo sarebbero state qualche anno fa: perché nel frattempo, oltre che continuare a essere contestato dalla destra, il fact checking ha perso popolarità anche a sinistra e al centro.
“Fact checking” è un’espressione diffusa nel mondo anglosassone da molto prima dei social e del dibattito recente sulla disinformazione. Nella sua accezione più ampia indica la pratica giornalistica di verificare i fatti e le fonti delle notizie, che in teoria è parte del lavoro giornalistico stesso. Nel caso di Meta indica il programma, ora dismesso, che prevedeva di contrassegnare foto, video o articoli di notizie false con un avviso: era gestito in autonomia da varie organizzazioni, diverse da paese a paese, che ricevevano finanziamenti da Meta. Oltre all’avviso, i contenuti contrassegnati dai “fact checker” venivano mostrati meno spesso rispetto agli altri suggeriti dalla piattaforma. In Italia, a collaborare con Facebook per il fact checking sono i siti Facta e Open: e il progetto, come quello nei paesi che non sono gli Stati Uniti, per il momento è ancora finanziato.
Dalle ricerche scientifiche non emergono risultati omogenei riguardo all’efficacia del fact checking sui social. Una revisione di 30 studi pubblicata nel 2019 e relativa a un campione di oltre 20mila persone concluse che, nel complesso, il fact checking ha un’influenza positiva e statisticamente significativa sulle convinzioni degli utenti, ma anche molto variabile a seconda di diversi fattori. In generale, più l’argomento contrassegnato riguarda un argomento polarizzato e divisivo, meno la segnalazione è efficace nel correggere la convinzione errata di partenza.
«Quando è usato per verificare un contenuto sulla Brexit nel Regno Unito o sulle elezioni negli Stati Uniti, è lì che il fact checking non funziona tanto bene», ha detto alla rivista Nature Jay Van Bavel, psicologo della New York University. Una delle ragioni, secondo lui, è che le persone che hanno un orientamento politico definito «non vogliono credere a cose che peggiorano l’immagine del loro partito».
Alcune perplessità sul fact checking riguardano poi la rilevanza che inevitabilmente attribuisce proprio ai contenuti che seleziona, verifica e contrassegna come falsi. Una scelta alternativa, comunque problematica e discussa, potrebbe essere evitare di dare ai contenuti ulteriore visibilità: un «silenzio strategico», scrisse in una ricerca sulla disinformazione nel 2017 l’organizzazione non profit First Draft News.
È una questione che ha alcuni punti in comune con le implicazioni del cosiddetto effetto Streisand, cioè l’ampia diffusione di un’informazione come conseguenza del tentativo di censurarla o nasconderla. Un altro effetto è che il lavoro autonomo di verifica dei contenuti che circolano sui social può a volte sembrare goffo e ingenuo, perché concentrato anche su affermazioni palesemente false, trattate come se della loro fondatezza avesse comunque senso parlare.
Altre volte il fact checking è sembrato invece opportuno, per affermazioni effettivamente ambigue e discutibili, ma viziato da pregiudizi. È una parte abbastanza centrale nel dibattito, esplicitamente citata da Zuckerberg: l’idea che i fact checker siano stati in questi anni «politicamente troppo di parte» e abbiano «distrutto più fiducia di quanta ne abbiano creata». Questa opinione è stata molto contestata dai fact checker: «credo che non stessimo facendo niente con pregiudizio, in alcuna forma», ha detto al New York Times Neil Brown, presidente del Poynter Institute, uno storico ente statunitense che si occupa di giornalismo e che era tra i partner di Meta nel programma di fact checking.
In generale non ci sono molti dubbi sul fatto che la maggior parte delle verifiche delle notizie sui social si sia concentrata in questi anni su contenuti diffusi da canali vicini alla destra statunitense. E forse proprio perché la richiesta di fact checking proveniva in modo prevalente dalla sinistra o comunque dall’area cosiddetta liberal, è comprensibile che giornalisti ed esperti impegnati a vario titolo in attività specifiche di contrasto della disinformazione tendessero ad avere perlopiù un orientamento progressista, ha scritto l’analista statunitense Nate Silver.
Un grafico con i risultati di un sondaggio condotto su 150 esperti accademici di disinformazione riguardo al loro orientamento politico
Van Bavel ha detto a Nature di essere d’accordo sul fatto che la disinformazione proveniente da destra riceva più attenzioni rispetto a quella da sinistra. Ma la spiegazione è che la prima è molto più diffusa tra le due, anche perché gli utenti conservatori sono più inclini dei progressisti a condividere informazioni da siti di scarsa affidabilità. E questo, secondo Van Bavel, fa sembrare che i fact checker siano di sinistra solo perché il fact checking dei contenuti promossi dalla destra li impegna molto più spesso.
Una conseguenza ovvia di questa condizione di partenza è che i fact checker hanno molto più spesso contrassegnato come disinformazione contenuti che erano politicamente scomodi per i progressisti, e questo ha contribuito a dare l’impressione che cercassero di difendere e favorire quella parte politica. Vale anche per le volte in cui è capitato che i fact checker si sbagliassero. Silver ha citato come esempio la loro tendenza a trattare come una teoria del complotto l’idea che durante la campagna per le presidenziali del 2024 il governo stesse cercando di nascondere i limiti fisici e cognitivi del presidente Joe Biden: versione però confermata da successivi resoconti e articoli.
Secondo i critici del fact checking sui social, le organizzazioni incaricate di gestirlo avrebbero mostrato dei pregiudizi soprattutto nella selezione dei contenuti da verificare: selezione tra una «montagna di cose che potevano essere verificate», secondo le parole dello stesso Brown. Alla fine della fiera molte delle affermazioni sottoposte al fact checking erano proprio le più problematiche, e cioè mezze verità e iperboli: contenuti basati più su opinioni che su fatti, ha scritto Silver. Anche perché se fossero state affermazioni facili da confutare, ci avrebbe già pensato qualcun altro a farlo prima dei fact checker.
Il fatto che il fact checking sui social sia stato ampiamente criticato per i suoi limiti non implica che i detrattori del programma dismesso da Meta siano convinti dell’inefficacia del fact checking in sé. Semplicemente criticano l’idea che abbia senso separarlo da un serio lavoro giornalistico, e che faccia bene al giornalismo «avere un gruppo di persone specificamente designate come esperti di disinformazione o fact checker», visto che il loro lavoro «dovrebbe essere il lavoro di tutti», ha scritto Silver.
Del resto è proprio la perdita di fiducia nel giornalismo e nei media ad avere attirato attenzioni e interesse verso organizzazioni esterne descritte come arbitri neutrali, ha scritto Fergus McIntosh, responsabile del reparto di fact checking per il New Yorker. È un reparto in cui lavorano quasi trenta persone e che esiste dal 1927, formato da una specie di supervisori incaricati di verificare tutto ciò che viene pubblicato dalla rivista: consultano le fonti condivise con loro da autori e autrici, contattano le persone coinvolte nelle storie, conducono ricerche in autonomia e sentono gli esperti del settore.
Il problema del fact checking appaltato dalle società dei social network a enti terzi, secondo McIntosh, è che selezionare affermazioni specifiche per confermarle o confutarle non è affatto neutrale, perché comporta necessariamente scelte editoriali su cosa trattare. Limitarsi a «sottolineare gli errori degli altri non basta», ha scritto: il fact checking ha senso e funziona se è parte di un più ampio processo giornalistico collettivo, in cui a volte può essere necessario «tagliare» ciò che non può essere verificato.
Le critiche al modo in cui Meta ha gestito il fact checking contribuiscono ad accrescere una certa sfiducia anche per il modo in cui potrebbe gestire il sistema di verifica alternativo annunciato da Zuckerberg, simile a quello già utilizzato dalla piattaforma X (ex Twitter): le community notes. È un sistema che permette agli utenti di correggere o aggiungere informazioni e contesto a informazioni false condivise da qualcun altro: un modo di appaltare il fact checking alla comunità di utenti anziché a organizzazioni giornalistiche dedicate, in un certo senso.
Secondo studi citati dal ricercatore inglese Tom Stafford sul blog della London School of Economics (LSE) e da altri ricercatori sentiti da Nature, le note della comunità possono essere efficaci, soprattutto se abbinate ad altri sistemi di moderazione dei contenuti. Ma molto dipende da come viene implementato il sistema. Un’analisi condotta nel 2024, per esempio, ha mostrato che le note della comunità su X – in origine sviluppate per integrare, non sostituire, il fact checking – venivano aggiunte ai contenuti problematici troppo tardi, in genere quando i contenuti erano ormai ampiamente diffusi.
Altre analisi indicano che oltre il 70 per cento dei contenuti di disinformazione su X non riceve note dalla comunità. Esiste inoltre il rischio che anche le note della comunità siano viziate da pregiudizi collettivi, e che singoli gruppi di utenti in malafede possano mettersi d’accordo per distorcere il sistema in modo da orientare la valutazione dei contenuti, per esempio screditandone la fonte.
Correzione del 20 gennaio: una precedente versione di questo articolo diceva che il sito Pagella Politica era il partner italiano di Facebook per il fact checking. Come ha segnalato la stessa testata in un post che contesta anche altre valutazioni contenute in questo articolo, dal 2020 a collaborare con Facebook è invece Facta, una testata separata appartenente alla stessa società di Pagella Politica. Dal 2021 inoltre anche la testata Open collabora al progetto Third Party Fact-Checking Program di Meta.