La “Corte Suprema di Facebook” è servita a qualcosa?

Da cinque anni una squadra di giornalisti, politici e studiosi gestisce con grande lentezza casi che diversamente non gestirebbe nessuno

Mark Zuckerberg a un'udienza in Senato sul tema delle grandi piattaforme tecnologiche e lo sfruttamento dei minori, Washington DC, Stati Uniti, 31 gennaio 2024(Jemal Countess/Redux/contrasto)
Mark Zuckerberg a un'udienza in Senato sul tema delle grandi piattaforme tecnologiche e lo sfruttamento dei minori, Washington DC, Stati Uniti, 31 gennaio 2024
(Jemal Countess/Redux/contrasto)
Caricamento player

Nel 2018 Mark Zuckerberg, fondatore di Facebook, incontrò Noah Feldman, docente della Harvard Law School, per discutere di nuovi modi per gestire la moderazione dei contenuti nella sua piattaforma. Facebook, infatti, veniva da due anni di scandali e accuse legate alla diffusione di disinformazione nel social network, soprattutto a partire dal referendum su Brexit e dalle elezioni statunitensi del 2016.

Feldman gli propose di creare un organo «quasi-giudiziario» per gestire i suoi casi più delicati, che fu fondato nel 2018 ma entrò in attività alla fine del 2020. Nacque così l’Oversight Board, che la scorsa settimana ha pubblicato un report per spiegare e riassumere i suoi primi cinque anni di attività.

L’idea era di nominare un comitato indipendente da Facebook per esternalizzare il processo decisionale, togliendo la responsabilità diretta all’azienda e offrendo allo stesso tempo maggiore trasparenza agli utenti. Tra i membri del Board ci sono circa venti giornalisti, politici e accademici, come l’attivista yemenita e premio Nobel per la Pace Tawakkol Karman, l’ex direttore del Guardian Alan Rusbridger e l’ex prima ministra della Danimarca, Helle Thorning-Schmidt.

Da allora l’Oversight Board rimane un caso unico nel settore dei social network, una sorta di «Corte Suprema di Facebook», come la definì originariamente Zuckerberg. Gli utenti possono fare appello all’Oversight Board quando ritengono di aver ricevuto un trattamento ingiusto da Facebook, Instagram e Threads, chiedendo ad esempio di annullare la sospensione di un profilo o la cancellazione di un post.

– Leggi anche: In Europa nessuno fa lobby come le aziende di tecnologia

In questi cinque anni di attività l’Oversight Board ha discusso casi provenienti da tutto il mondo, pubblicando più di duecento decisioni e offrendo 317 «consigli di policy» a Meta, che ne ha accolto circa il 75%. In particolare, il comitato sostiene di aver contribuito a difendere la libertà d’espressione degli utenti, soprattutto per quanto riguarda i contenuti «relativi a elezioni imminenti, scandali politici o movimenti di protesta».

Un esempio è il caso di un utente lettone che nel 2022 aveva pubblicato su Facebook un post contro l’esercito russo, accusato di crimini di guerra in Ucraina, che conteneva un verso del poeta sovietico Konstantin Simonov: «Uccidi il fascista… Uccidilo! Uccidilo!». Meta aveva inizialmente rimosso il post ma l’Oversight Board chiese (e ottenne) di rimetterlo online, perché criticava i russi «per il loro ruolo da combattenti, non per la loro nazionalità». Quanto all’invito ad uccidere, andava interpretato come «un rimando artistico e culturale impiegato come espediente retorico».

Un altro caso riguarda le proteste contro il regime iraniano e la polizia religiosa in seguito alla morte di Mahsa Amini, nel 2022, quando si diffusero su Facebook post contenenti lo slogan «marg bar Khamenei» («morte a Khamenei», con riferimento alla Guida suprema dell’Iran, Ali Khamenei). A prima vista un contenuto simile sembrava violare le norme di Meta contro le minacce di morte ma, secondo l’Oversight Board, la frase doveva essere intesa in modo meno letterale: non tanto «A morte Khamenei», quanto «Abbasso Khamenei». Pur violando alcune regole di Meta sull’incitamento alla violenza, il post fu rimesso online per il suo interesse giornalistico.

Un’immagine di Mark Zuckerberg e la scritta “Meta sta distruggendo la democrazia brasiliana”, vista dall’interno della stazione di King’s Cross St. Pancras di Londra. L’immagine è stata proiettata su un muro dall’organizzatore no profit SumOfUs, che accusa il CEO di permettere che la disinformazione si propaghi sulle sue piattaforme, Londra, 29 ottobre 2022 (Adams/Getty Images)

L’Oversight Board non è stato progettato per agire velocemente e spesso la sua lentezza nelle decisioni ha fatto discutere, specie quando si tratta di contenuti di politici o capi di stato, particolarmente delicati per Meta. Nel 2022, ad esempio, il primo ministro cambogiano Hun Sen pubblicò un video con minacce esplicite contro gli oppositori, in cui chiedeva ai suoi sostenitori di «usare i bastoni» e «picchiare» i suoi avversari politici. L’Oversight Board impiegò due mesi solo per accettare il caso e altri cinque per decidere la rimozione del video e la sospensione dell’account di Hun Sen. Nel frattempo, in Cambogia, molti attivisti e manifestanti furono vittime di attacchi politici.

Come ha scritto il giornalista Casey Newton, «quasi tutti quelli con cui ho parlato dicono di essere in qualche modo delusi dalla performance del Board. Eppure, spesso nella stessa frase, mi dicono che comunque è meglio dell’alternativa». Prima della creazione del Board, infatti, «per la società civile, i governi e qualsiasi tipo di gruppo era una sorta di magia nera riuscire a parlare con queste piattaforme quando accadeva qualcosa», spiega Kate Klonick, giornalista e docente universitaria.

Nel frattempo, però, il dibattito sulla moderazione dei contenuti da parte delle piattaforme tecnologiche è cambiato, e molte aziende del settore hanno adottato un approccio più libertario e permissivo. L’anno scorso lo stesso Zuckerberg ha criticato l’amministrazione di Joe Biden per le pressioni fatte su Facebook affinché rimuovesse contenuti riguardanti il Covid-19 e i vaccini durante la pandemia.

Molte aziende del settore hanno inoltre approfittato della recente vittoria di Donald Trump, e del conseguente avvicinamento del settore tecnologico alla Casa Bianca, per allentare molto i meccanismi di controllo e moderazione dei contenuti. Lo scorso gennaio Zuckerberg ha rimosso tutti i fact-checker dell’azienda negli Stati Uniti, definendoli «politicamente di parte» (ma mantenendo quelli all’estero, impiegati da aziende terze). Meta ha comunque confermato i fondi per l’Oversight Board per i prossimi due anni.

– Leggi anche: Il fact checking sui social serviva a qualcosa?

Secondo Klonick, che nel 2021 dedicò al comitato un lungo articolo sul New Yorker, c’è stato effettivamente un momento storico in cui Zuckerberg pensava che esternalizzare questo genere di decisioni «fosse sia nel suo interesse che la cosa giusta da fare». Oggi, però, l’Oversight Board sembra un prodotto di un’epoca diversa e lontana, in cui le aziende tecnologiche temevano ripercussioni regolatorie da parte del governo statunitense e quindi cercavano di segnalare le loro buone intenzioni con iniziative simili.