• Media
  • Sabato 26 novembre 2016

Le notizie false e noi

Le responsabilità dei social network, quelle dei giornali e quelle dei lettori: guida per orientarsi in una discussione complessa ma necessaria

di Emanuele Menietti – @emenietti

L’improbabile vittoria di Donald Trump alle presidenziali negli Stati Uniti ha riaperto il dibattito sulle notizie false, sulle loro conseguenze, sulla loro diffusione online – soprattutto attraverso i social network – e sugli strumenti che il sistema dei media dovrebbe adottare per ridurre il fenomeno, recuperando fiducia nei confronti dell’opinione pubblica. In pochi giorni sui giornali statunitensi sono state pubblicate decine di articoli rendendo ancora più fecondo un dibattito che già esisteva prima dell’elezione di Trump, ma che raramente era stato al centro dell’attenzione dei media e del grande pubblico, se non temporaneamente e per la tenacia di alcuni analisti e osservatori dei mezzi di comunicazione. Le posizioni e le tesi sono innumerevoli e vanno dagli articoli colpevolisti, soprattutto nei confronti di Facebook, a quelli autoassolutori delle testate giornalistiche, passando per contrite assunzioni di responsabilità e proposte costruttive per provare a superare il problema delle false notizie, o per lo meno per arginarne la diffusione.

È davvero colpa di Facebook?
Le prime analisi pubblicate subito dopo le elezioni negli Stati Uniti avevano attribuito a Facebook una responsabilità centrale nella diffusione di notizie false, che secondo alcuni avrebbero condizionato direttamente il risultato elettorale favorendo Donald Trump. Mark Zuckerberg, il CEO della società, aveva rapidamente liquidato queste accuse spiegando di ritenere “molto improbabile che le bufale abbiano cambiato l’esito delle elezioni in una direzione piuttosto che in un’altra”. Zuckerberg aveva inoltre sostenuto che “più del 99 per cento” dei contenuti su Facebook sono autentici, e che solo una minuscola porzione contiene notizie false e bufale, nemmeno tutte legate alla sola politica.

Le dichiarazioni di Zuckerberg avevano portato a nuove critiche, soprattutto perché non fornivano elementi e dati concreti a loro sostegno. Tra i più duri c’era stato William Turton di Gizmodo, che aveva invitato a smettere di prendere per oro colato tutto ciò che dice Zuckerberg a proposito della sua azienda, criticandolo soprattutto per non rendere pubblici i dati (in forma anonima e aggregata) sul comportamento degli utenti, unico modo per comprendere l’effettivo ruolo delle notizie false nell’elezione di Trump e le modalità con cui riescono a proliferare sul social network. Turton aveva ricordato inoltre che il problema della scarsa trasparenza di Facebook risale a molto prima dell’elezione di Trump: il social network raccoglie ogni giorno miliardi di informazioni su ciò che fanno i suoi iscritti, ma non le mette a disposizione dei ricercatori interessati a studiare le dinamiche sociali sul Web. Facebook ha collaborato in passato con progetti di ricerca limitati, fornendo solo dati parziali sulle attività degli utenti. Senza quei pezzi di informazioni è molto difficile che si possa studiare con accuratezza che cosa è successo nell’ultimo anno, durante la campagna elettorale e subito prima delle elezioni, sul piano delle notizie false e non solo.

Dopo essere rimasto per giorni in uno stato di “completo rifiuto”, come hanno scritto diversi osservatori, domenica 20 novembre Mark Zuckerberg è tornato sul tema delle notizie false su Facebook adottando tutt’altro tono e annunciando di volerlo affrontare in modo più determinato e incisivo. Seppure continuando a sostenere che “la percentuale di disinformazione su Facebook è relativamente bassa”, Zuckerberg ha elencato i punti della nuova strategia contro le notizie false:

• impiegare algoritmi che identifichino i contenuti che gli utenti probabilmente segnalerebbero come bufale, in modo da rimuoverli ancora prima che vengano segnalati;
• semplificare la segnalazione dei contenuti falsi da parte degli utenti;
• coinvolgere organizzazioni esterne a Facebook per confrontarsi sulla moderazione dei contenuti;
• etichettare le notizie ritenute false;
• migliorare la qualità degli articoli correlati, che compaiono sotto un post quando si mette “Mi piace” nella sezione Notizie;
• impedire ai siti di notizie false di usare il sistema per la pubblicità online di Facebook, tagliando una delle loro principali fonti di ricavo;
• confrontarsi con media e giornalisti per avere altri suggerimenti e consigli.

Zuckerberg ha concluso il suo post ricordando che non tutti i nuovi propositi potrebbero funzionare al primo colpo, ma che la riduzione delle notizie false resta una priorità per Facebook. Il suo impegno è stato accolto positivamente, anche dai più critici, che però hanno ricordato che nel post manca un pezzo importante della storia: un’analisi, con dati e trend, per capire quale ruolo abbia avuto il social network nelle presidenziali degli Stati Uniti.

L’editoriale del New York Times
Facebook è stato criticato anche dal New York Times, che il 19 novembre ha pubblicato un editoriale sulla diffusione delle notizie false online partendo da questo assunto: la responsabilità è in primo luogo dei siti che pubblicano bufale, di solito con sensazionalismi che attirino clic per guadagnarci con la pubblicità, ma “aziende attive su Internet come Facebook e Google hanno buona parte della responsabilità per questa piaga, avendo reso possibile la condivisione delle notizie false con milioni di utenti quasi istantaneamente e senza la capacità di bloccarle”.

L’editoriale cita un articolo molto interessante pubblicato su BuzzFeed da Craig Silverman, giornalista che si occupa da tempo della genesi e della diffusione delle notizie false online, secondo cui negli ultimi tre mesi della campagna presidenziale negli Stati Uniti le 20 notizie false più di successo su Facebook hanno avuto un seguito maggiore (in termini di condivisioni, “Mi piace” e commenti) rispetto ai 20 articoli più di successo diffusi da veri siti di informazione. Alcune di queste notizie false sono state riprese, volontariamente o inconsapevolmente, dai candidati alle elezioni per il Congresso e in alcuni casi dallo stesso Trump, creando un circolo vizioso che ha portato a renderle più credibili e di conseguenza ancora più condivise sui social network.

Il New York Times scrive che Facebook ha già fatto qualche progresso dopo le elezioni, come l’annuncio di non fornire il suo servizio per le pubblicità ai produttori di notizie false, ma che “deve ai suoi utenti, e alla stessa democrazia” uno sforzo molto maggiore. Nel corso degli ultimi anni Facebook ha modificato numerose volte i suoi algoritmi per filtrare e modulare i contenuti che ogni utente vede nella sezione Notizie, in modo da aumentare la partecipazione e di conseguenza i tempi di permanenza sul social network (con conseguenti benefici per la pubblicità). I contenuti sono mostrati in modo personalizzato in base alle abitudini dei singoli utenti, alle cose che loro stessi condividono, ai “Mi piace” che mettono ai post degli altri e a quanto tempo dedicano a commentare e leggere i commenti degli altri. In molti si sono chiesti perché Facebook non possa utilizzare i suoi algoritmi anche per identificare rapidamente i post contenenti notizie false, mostrandoli meno nella sezione Notizie ed eliminandoli nei casi più estremi.

Chi decide cosa moderare su Facebook
Nella prima metà di quest’anno, Facebook ha dovuto fare i conti con altre polemiche legate al modo con cui seleziona e mette in evidenza alcuni articoli nella versione statunitense della sezione Notizie: il social network era stato accusato di manipolazione nella scelta degli argomenti di tendenza, quelli più discussi dagli utenti, e di avere favorito gli articoli della stampa progressista rispetto a quella conservatrice. Facebook ha risposto alle accuse organizzando incontri con delegazioni di politici e giornalisti conservatori ed eliminando la selezione editoriale (quindi svolta da persone) affidando l’intero sistema ad algoritmi, che in alcuni casi hanno però favorito la diffusione di notizie false. Secondo fonti interne all’azienda, Facebook avrebbe inoltre evitato di introdurre nuovi filtri per limitare le notizie false, nel timore che si potesse ridurre la presenza di contenuti dai siti vicini ai Repubblicani, che in proporzione producono più articoli falsi di quelli a favore dei Democratici.

Facebook rifiuta da sempre di essere definito anche come “media company”, una società editoriale, sostenendo di essere semplicemente un sistema per mettere in contatto le persone interessate a condividere i loro interessi. Nella pratica, però, Facebook sceglie e seleziona le notizie da mostrare (e il modo in cui farlo) per i suoi iscritti, raccontando e dando una rappresentazione del mondo come fanno gli altri media. E anche se algoritmi e sistemi automatici hanno un ruolo preponderante nel formare questa gerarchia e questa idea di mondo, dietro le quinte del social network ci sono comunque migliaia di persone il cui compito è decidere se eliminare o meno post, commenti e altri contenuti segnalati dagli utenti come volgari, violenti, molesti o recanti falsità. Come una redazione.

NPR ha condotto una lunga indagine sulla moderazione dei contenuti all’interno di Facebook, intervistando impiegati ed ex dipendenti che hanno chiesto di non essere identificati per evitare possibili ripercussioni sul piano legale. Quando un contenuto viene segnalato su Facebook, spetta al “community operations team” controllarlo per decidere se rimuoverlo o meno. Questa divisione è cresciuta rapidamente negli ultimi anni e conta alcune migliaia di persone, concentrate soprattutto in alcuni uffici a Manila nelle Filippine e a Varsavia, in Polonia. Facebook ha quasi 1,8 miliardi di utenti, quindi ogni giorno il numero di segnalazioni è enorme: ogni impiegato del team è valutato soprattutto in base alla velocità con cui riesce a chiudere le segnalazioni. In media un impiegato revisiona un contenuto ogni 10 secondi, per una media giornaliera di 2.800 post al giorno, secondo i calcoli fatti da NPR. Una foto chiaramente vietata dal regolamento di Facebook può essere controllata e rimossa in pochi secondi, altri casi sono molto più complessi e ci si chiede quanto possa essere accurato un controllo di questo tipo.

La maggior parte dei contenuti non viene rimossa, ma NPR racconta che comunque ci troviamo davanti alla più grande operazione di verifica – o “censura” – nella storia dei media, e che tutto questo smentisce il fatto che Facebook sia una semplice piattaforma gestita con sistemi automatici senza intervento umano. Gli interventi riguardano soprattutto la pubblicazione di contenuti non consentiti, ma se ci sarà un maggiore controllo sulle notizie false, come promesso da Zuckerberg, è probabile che spetti a gruppi di lavoro come questi la responsabilità di fare almeno in parte le verifiche sulla veridicità dei contenuti. In assenza di conoscenze sufficienti e di meccanismi meno frenetici di controllo, molte cose potrebbero andare storte nella ricerca delle notizie false condivise sul social network. Per questo motivo diversi giornalisti ed esperti di media negli ultimi giorni hanno scritto che Facebook dovrebbe ammettere, in primo luogo a se stesso, di essere anche una media company e di avere bisogno di qualcuno che sappia gestire questo suo aspetto, finora sottovalutato.

Un direttore editoriale per Facebook
Margaret Sullivan scrive sul Washington Post che i propositi di Zuckerberg sono una buona cosa, ma non sono sufficienti: “È tempo per una mossa più coraggiosa: Facebook dovrebbe assumere un direttore editoriale di punta, dargli le risorse, il potere e uno staff per prendere decisioni in campo editoriale”. Visto che il social network rifiuta la definizione di media company, Zuckerberg potrà definire questo nuovo incarico come preferisce, spiega Sullivan: l’importante è che ci sia qualcuno con le giuste competenze per occuparsene: “Qualsiasi sia il titolo, Facebook ha bisogno di qualcuno in grado di distinguere la foto di una bambina che ha vinto il premio Pulitzer da un caso di pedopornografia, e che può riconoscere una balla da una vera inchiesta giornalistica”. Il riferimento è alla rimozione avvenuta questa estate di un post di un giornale norvegese, che aveva pubblicato la famosa foto di Nick Ut del 1972 in cui si vede una bambina vietnamita che corre nuda, allontanandosi da un’area in cui è stato condotto un attacco aereo con il napalm.

Ben prima delle elezioni, del resto, molti osservatori avevano segnalato la necessità di trovare sistemi per segnalare le notizie false che circolano facilmente sui social network, per impedire che ottengano una risonanza (tra “Mi piace”, condivisioni e retweet su Twitter) tale da renderle inarrestabili. Spesso gli articoli dei media affidabili che le smontano non ricevono la stessa attenzione, lasciando quindi migliaia di persone convinte di cose completamente inventate. Prima delle presidenziali negli Stati Uniti è successo più volte, per esempio con la notizia falsa secondo cui Trump avesse ricevuto l’esplicito sostegno da parte di papa Francesco.

Le notizie false oltre Facebook
In assenza di informazioni dettagliate da parte di Facebook è difficile dire con certezza quale peso abbia avuto il social network nelle presidenziali statunitensi, e più in generale quanto le notizie false abbiano influito sulla campagna elettorale. Molti osservatori sono convinti che Facebook sia stato usato dai media come un capro espiatorio, una facile soluzione per identificare un colpevole e al tempo stesso assolversi da eventuali responsabilità. Gregory Ferenstein ha scritto sul Washington Post che anche se non ci fossero state notizie false su Facebook, probabilmente chi utilizza Internet le avrebbe trovate e condivise lo stesso per altre vie, citando diverse ricerche condotte negli ultimi anni sul comportamento di chi si informa principalmente online attraverso social network, siti di informazione, forum e contatti.

Prima di Internet e la diffusione delle televisioni via cavo, osserva Ferenstein, giornali e televisioni nazionali avevano goduto di “un’era dell’oro” da custodi delle notizie utilizzate dall’opinione pubblica per formarsi un’idea: “A buona parte dell’America arrivavano le stesse notizie, mentre i punti di vista alternativi erano sostanzialmente esclusi dalla TV e dalla carta stampata”. Ora il pubblico non è più loro “prigioniero” e i lettori possono accedere alle notizie un po’ ovunque, vere o false che siano: “Facebook consente alle persone di trovarle e condividerle più facilmente, ma se non esistesse, ci sarebbe qualcos’altro”. E c’è già altro: canali televisivi via cavo, siti e organizzazioni – soprattutto vicine ai Repubblicani – che pubblicano notizie false, che hanno successo semplicemente perché ci sono persone dall’altra parte disposte a crederci e contente di avere un rinforzo alle loro convinzioni.

Trump ha alimentato tutto questo dicendo praticamente a ogni comizio che “il sistema dei media è truccato” e che i giornalisti sono sempre contro di lui. Durante la sua campagna elettorale ha invitato i suoi sostenitori a informarsi online da fonti alternative, non dai media tradizionali, facendo l’esempio di siti come Drudge Report Breitbart e riprendendo le notizie di siti meno conosciuti, che spesso non citano nemmeno le fonti delle informazioni che pubblicano.

Il problema di fondo è che se le notizie false proliferano è perché c’è qualcuno disposto a crederci: intenzionalmente se gli fa comodo, o inconsapevolmente se non hanno gli strumenti e le capacità per riconoscere una bufala, soprattutto se questa viene ripresa da qualcuno di cui si fidano. L’ex generale Michael Flynn, scelto come consigliere per la sicurezza nazionale da Trump, poco prima delle elezioni aveva per esempio condiviso una notizia falsa in cui si diceva che Hillary Clinton era coinvolta in uno scandalo di riciclaggio di denaro e di crimini di altro tipo a sfondo sessuale: era una bufala, ma il suo tweet fu ricondiviso più di 8mila volte.

Riconoscere le notizie false
Un recente studio della Stanford University indica chiaramente le difficoltà che incontrano molte persone nel riconoscere le notizie false, soprattutto tra i più giovani. La ricerca ha coinvolto 7.804 studenti che frequentano scuole secondarie e college e ha mostrato come per loro sia quasi sempre irrilevante la fonte della notizia che stanno leggendo. Molti studenti, per esempio, hanno valutato più credibili certe notizie semplicemente sulla base della quantità di dettagli contenuti nel tweet, aggiungendo di considerare più affidabili i tweet che contengono anche una grande fotografia. Lo studio ha rilevato come ci sia una chiara difficoltà anche a riconoscere un articolo scritto a scopi pubblicitari da un normale articolo informativo.

Niente mediazione e scarsa fiducia
L’aumento dell’offerta informativa ha reso più evidenti le complessità e le contraddizioni del mondo, trasformando progressivamente il ruolo dei giornalisti, il cui compito principale oggi dovrebbe essere fare una selezione nel marasma delle notizie e aiutare l’opinione pubblica a restare informata su ciò che davvero importa. In parte per loro responsabilità dirette, i giornalisti hanno perso rapidamente il carico di fiducia riposto dai lettori nei loro confronti, mentre è cresciuta la convinzione che Internet offra i fatti e che sia meglio accedervi direttamente, senza alcuna mediazione.

La sfiducia nei giornalisti è comune in molte democrazie occidentali e probabilmente è paragonabile solo a quella nei confronti dei politici. Negli Stati Uniti solo il 18 per cento della popolazione dice di fidarsi delle notizie a livello nazionale e il 22 per cento di quelle a livello locale. Tre statunitensi su quattro pensano che le grandi organizzazioni che fanno informazione contribuiscano a tenere al loro posto i politici, ma più o meno la stessa percentuale pensa che il sistema dei media sia fazioso. Lo pensano di più i sostenitori dei Repubblicani rispetto a quelli dei Democratici, ed è indubbio che a questa differenza abbiano contribuito gli stessi esponenti politici conservatori e i siti e le radio del medesimo schieramento politico.

L’elezione di Trump (e prima ancora il risultato di Brexit) ha ampliato a dismisura il dibattito sulla disinformazione e, come ha ricordato sul suo blog il direttore del Post, Luca Sofri: “Il mondo ha scoperto i rischi delle democrazie informate male, rischi che erano stati sottovalutati, ma che erano arcinoti”. La disinformazione esisteva prima di Internet: con l’avvento della Rete si è semplicemente aggiunto un nuovo strato a un fenomeno complesso e dai contorni piuttosto sfumati. La disinformazione ha dentro un po’ di tutto: errori in buona fede, incomprensioni, faziosità, la crisi dei giornali, la scarsa inclinazione dei giornalisti a fare verifiche, la tendenza a rendere semplicistiche le spiegazioni di fenomeni complessi, senza dimenticare il fatto che informarsi costa fatica e che non tutti sono interessati a farlo. I social network hanno probabilmente amplificato il problema, offrendo tra le altre cose scorciatoie per i media in difficoltà, alla ricerca di clic e di soluzioni per mantenere i loro modelli di business basati sulla pubblicità che richiedono grandi quantità di lettori e di pagine viste per essere sostenibili.

Da dove arrivano le notizie false
Ci sono migliaia di siti poco affidabili che pubblicano ogni giorno notizie false, con articoli dai titoli eclatanti per attirare l’attenzione soprattutto sui social network. Non tutte fanno breccia, ma è sufficiente un retweet di un personaggio un po’ in vista, o una condivisione su una pagina di Facebook molto frequentata per avviare il circolo vizioso che darà più visibilità alla bufala, talvolta facendola finire anche sui media tradizionali. Che le bufale siano un business era noto da tempo, ma in alcuni casi durante la campagna elettorale statunitense sono anche diventate uno strumento politico utilizzato soprattutto per screditare Hillary Clinton. Gli esempi in questo senso sono numerosi e si va dagli strani siti gestiti dalla Macedonia, con bufale di ogni tipo sulla candidata dei Democratici, a iniziative più sofisticate come rivelato di recente dal Washington Post.

Due gruppi di ricercatori, che hanno lavorato separatamente all’analisi delle notizie false durante la campagna elettorale, hanno notato che “il flusso di notizie false in questa stagione elettorale è stato rinforzato da una campagna di propaganda dalla Russia creata per diffondere articoli ingannevoli con l’obiettivo di sfavorire Hillary Clinton, aiutando Donald Trump, e danneggiando la fede nei confronti della democrazia americana”. Tracciando l’origine di particolari tweet e le connessioni di alcuni account sui social network, i ricercatori dicono di avere trovato un sistema organizzato per la diffusione di notizie false contro Clinton attraverso circa 200 siti, che hanno raggiunto un pubblico di lettori stimato intorno a 15 milioni di statunitensi. I loro post pubblicati su Facebook sono stati visti almeno 200 milioni di volte sul social network.

Le prove sui legami con la Russia sono consistenti, dicono i ricercatori, che hanno in molti casi trovato un coinvolgimento diretto di alcune testate molto conosciute come Russia Today (RT) e Sputnik, controllate dal governo russo e da Vladimir Putin, già accusato di aver ordinato attacchi informatici contro il Partito Democratico e il comitato Clinton. Anche queste organizzazioni hanno usato i loro account per diffondere notizie con illazioni su Clinton, raramente verificate o verificabili, contribuendo alla creazione dei circoli viziosi che autoalimentano la diffusione delle bufale su Internet, talvolta con strascichi anche sui media tradizionali. Nelle ultime settimane di campagna elettorale questi siti hanno diffuso notizie sui presunti brogli durante le operazioni di voto senza fornire prove concrete, un tema ripreso spesso durante i comizi dallo stesso Trump. I ricercatori dicono che il sistema di propaganda era evidente, ma che sarà difficile quantificare il suo peso nel convincere gli elettori indecisi a votare per Trump e non per Clinton. Mathew Ingram su Fortune ha però sollevato alcuni dubbi sulle due ricerche e le ha definite vaghe e generiche, soprattutto sui metodi utilizzati per le analisi e le fonti utilizzate.

Scoop che non lo erano
In altri casi, le notizie false sono semplicemente il frutto di informazioni comunicate male e incomprensioni, agganciate però rapidamente dai media che ne hanno amplificato la portata. Il fenomeno è stato raccontato efficacemente dal New York Times citando il caso di un tweet di Eric Tucker, un uomo di 35 anni di Austin, Texas, che in poche ore è diventato un caso nazionale per uno scoop che non lo era. Il giorno dopo l’elezione di Trump, Tucker ha visto alcuni autobus in fila in una strada della sua città, poco distante da dove era stata organizzata una manifestazione contro il nuovo presidente eletto: ha dedotto che i due fatti fossero collegati e ha pubblicato su Twitter le fotografie degli autobus, dicendo che erano stati usati per portare i manifestanti e che quindi non c’era nessuna manifestazione spontanea in corso. Quegli autobus erano invece lì per un meeting di sviluppatori organizzato da un’azienda che si chiama Tableau Software.

00facebookoriginaltweet-jumbo

Il tweet di Tucker è stato segnalato su un canale di conservatori su Reddit e in seguito sul forum Free Republic, il cui link è stato poi condiviso più di 300mila volte su Facebook. Solo il giorno dopo, il 10 novembre, quando ormai il tweet di Tucker era ovunque, un giornalista si è messo in contatto con il responsabile degli affari aziendali di Coach USA, per chiedere chi avesse effettivamente affittato gli autobus per Austin. La falsa notizia aveva però ormai raggiunto una tale massa di post sui social network e articoli sui siti dei conservatori da essere inarrestabile. Lo stesso Trump nella sera del 10 novembre ha scritto un tweet in cui parlava di “manifestanti professionisti, incitati dai media” contro di lui.

L’11 novembre Tucker ha rimosso il suo tweet, sostituendolo con un altro in cui mostrava lo screenshot del contenuto rimosso con la scritta “FALSO”. La smentita della stessa notizia sbagliata che aveva dato Tucker è circolata pochissimo, se confrontata con la quantità enorme di retweet e condivisioni su Facebook del tweet originale. Lo stesso sito Snopes, che si occupa di smentire le notizie false e le bufale, ha ricevuto un numero infinitesimale di condivisioni del suo articolo in cui smontava la storia di Tucker. Molte persone ancora oggi credono che a Austin le proteste fossero organizzate con manifestanti portati con gli autobus: è impossibile dire quante siano, ma siamo nell’ordine delle migliaia.

Che fare?
Le analisi sulla crescente diffusione delle notizie false, e sul loro ruolo nell’elezione di Trump, sono ormai innumerevoli e continuano a esserne pubblicate di nuove, ma sono rari gli articoli che mettono in discussione il ruolo dei media nel fenomeno e che propongono soluzioni, per lo meno per arginare il problema. Tra gli interventi più interessanti sul “cosa possiamo fare”, c’è un lungo post scritto su Medium da Jeff Jarvis, rispettato studioso di comunicazione e nuovi media, che elenca una serie di consigli con la premessa che “le singole piattaforme non dovrebbero essere messe nella posizione di decidere cosa è falso e cosa è vero”.

Il primo consiglio è dare ai lettori la possibilità di segnalare più facilmente le notizie false alle piattaforme che le stanno mostrando, come Facebook, Twitter, Google, Bing, YouTube e gli altri servizi per la pubblicazione e la condivisione di contenuti. I social network dovrebbero inoltre concordare con i siti di news più affidabili e istituzionalizzati (agenzie di stampa internazionali, grandi quotidiani e altre media company) l’utilizzo di codici nelle loro pagine per rendere più riconoscibili le notizie affidabili e dare loro maggiore risalto, per esempio nelle notizie correlate che Facebook mostra quando si clicca sull’anteprima di un articolo: nel caso di una notizia falsa, le correlate potrebbero mostrare sistematicamente gli articoli che le smentiscono.

I motori di ricerca e i social network potrebbero inoltre utilizzare sistemi di analisi sui siti e sugli account, per identificare quelli creati da poco tempo al solo scopo di diffondere notizie false: è assurdo che talvolta abbiano la stessa evidenza di articoli pubblicati da fonti più autorevoli, che sono magari in circolazione da anni. I siti d’informazione dovrebbero inoltre rendersi il più riconoscibili possibile sui social network, per contrastare la progressiva generalizzazione da parte dei lettori “l’ho letto su Facebook”.

Per contrastare il fenomeno per cui ogni utente finisce quasi sempre per leggere notizie da determinate fonti di parte, con cui si trova più a proprio agio, i social network potrebbero proporre nei loro feed di tanto in tanto articoli da fonti d’informazione diverse, ma comunque affidabili, cui non si è iscritti. Gli utenti manterrebbero la possibilità di escludere quei contenuti, ma mostrarglieli almeno una volta potrebbe comunque essere utile per incentivarli a guardare un poco oltre la loro bolla. I siti di news dovrebbero seguire l’esempio di Snopes, creando sezioni in cui si occupano di smontare le bufale e le notizie false.

Facebook permette da tempo di modificare un proprio post dopo la pubblicazione, con un sistema molto trasparente che mostra comunque la cronologia delle modifiche; Twitter dà solo la possibilità di cancellare i tweet, ma non di correggerli. La vicenda del tweet di Tucker sugli autobus di Austin è la dimostrazione che Twitter dovrebbe studiare un sistema più adeguato non solo per dare la possibilità di modificare un tweet, ma anche per inviare notifiche agli utenti che l’hanno visto e avvisarli che qualcosa è cambiato, nel caso in cui sia stata diffusa una notizia inesatta. Se fosse stato possibile nel caso di Tucker, migliaia di persone avrebbero scoperto più facilmente che la storia degli autobus non stava in piedi.

I siti di notizie dovrebbero inoltre studiare meglio i meccanismi che determinano il successo di alcune iniziative online, come per esempio i meme che raccolgono centinaia di milioni di visualizzazioni e migliaia di condivisioni sui social network. Intorno ai meme c’è un bacino enorme di lettori che può essere raggiunto e non si deve escludere a priori di farlo con i mezzi che li attirano di più, a patto che i contenuti offerti siano corretti e utili per aumentare i livelli d’informazione. Organizzazioni e fondazioni che coinvolgono giornali, social network, università, ricercatori, ingegneri informatici e istituzioni per affrontare il tema potrebbero fornire nuovi punti di vista e strumenti.

Notizie false e bufale rendono le democrazie meno informate e riducono nei fatti la capacità di ciascuno di comprendere il mondo che abbiamo intorno e, in una certa misura, noi stessi. In molte analisi e articoli usciti nelle ultime settimane, i lettori sono stati trascurati, quasi tenuti in disparte, eppure nelle nostre società iperconnesse il loro ruolo è centrale nella moltiplicazione dei canali e delle opportunità attraverso i quali si diffondono e hanno successo le notizie false. Non hanno un ruolo passivo e, i più informati e con maggiori strumenti, dovrebbero essere i primi a farsi sentire nelle loro reti sociali, per spiegare a chi è meno informato che sta riprendendo una balla e a dargli qualche dritta per non cascarci più. Questo non significa azzerare le responsabilità di chi ha prodotto le bufale o minimizzare il ruolo dei media e dei giornalisti, che come abbiamo visto è enorme e ha mille implicazioni, ma semplicemente estendere a tutti la responsabilità di risolvere il problema. Condividerla.