I documenti riservati di Facebook sulla censura

Li ha pubblicati il Guardian, ci sono regole ambigue e che si contraddicono: rendono ancora più complicato tenere sotto controllo i post di 2 miliardi di utenti

(Sean Gallup/Getty Images)
(Sean Gallup/Getty Images)

Il Guardian ha reso pubblici i contenuti di un centinaio di documenti interni di Facebook, nei quali sono indicate regole e politiche da seguire per la moderazione dei contenuti sul suo social network. Alcune di queste indicazioni su cui sono formati i moderatori – cioè le persone che intervengono direttamente per rimuovere i post quando non sono sufficienti i sistemi automatici – si contraddicono a vicenda: nel complesso, scrive il Guardian, si ha l’impressione che Facebook non riesca a stare dietro in modo soddisfacente all’enorme quantità di cose pubblicate e condivise ogni giorno dai suoi quasi 2 miliardi di utenti. Il social network ha ricevuto spesso critiche, soprattutto in Europa e negli Stati Uniti, per essere intervenuto con lentezza nella rimozione di contenuti offensivi o, in altri casi, per avere rimosso post che in realtà non avevano nulla di controverso.

Le istruzioni contraddittorie non aiutano le migliaia di moderatori che ogni giorno si occupano di rivedere i post segnalati su Facebook. Interpretare le regole può essere difficoltoso, soprattutto nel caso di contenuti a tema sessuale: a volte sono espliciti e in chiara violazione delle regole di utilizzo del social network, in altri casi sono più sfumati e richiedono valutazioni aggiuntive, influenzate dalle capacità di giudizio soggettive del singoli moderatori. Anche per questo motivo può succedere che post simili e con contenuti controversi siano rimossi o mantenuti, a seconda del processo di revisione che hanno subìto.

La mole di lavoro è enorme e strettamente legata alla rapida crescita di Facebook, che ha lasciato poco tempo ai suoi amministratori per produrre linee guida chiare per la moderazione. Di norma una prima revisione dei contenuti segnalati dagli utenti viene effettuata con un processo automatico; poi sulla base della risposta degli utenti avviene una nuova verifica da parte di un moderatore. I tempi per una revisione sono molto stretti: accade spesso che un impiegato di Facebook abbia circa 10 secondi per decidere che cosa fare di un post segnalato, prima di passare al successivo. Così poco tempo e regole di moderazione ambigue possono portare a errori, anche grossolani, come avvenuto lo scorso anno quando il social network censurò la famosa fotografia di una bambina nuda che scappa da un villaggio appena bombardato durante la guerra nel Vietnam.

Il Guardian ha raccolto in un elenco le principali istruzioni fornite da Facebook ai suoi moderatori, a seconda dei temi:

  • affermazioni come “qualcuno dovrebbe sparare a Trump” devono essere rimosse, perché i capi di stato sono una categoria protetta sul social network;
  • frasi come “vaffanculo, muori” o “spero che qualcuno ti uccida” sono invece tollerate, perché non costituiscono una minaccia credibile;
  • i video di morti violente non devono essere sempre rimossi – per esempio se hanno una rilevanza sociale o aiutano a comprendere problemi legati alla salute mentale – ma viene comunque richiesto che siano segnalati come immagini forti e che potrebbero disturbare qualcuno;
  • le foto di violenze sugli animali possono essere condivise, e solo quelle estremamente violente devono essere segnalate come forti per avvisare gli utenti;
  • dipinti e illustrazioni con nudi e attività sessuale sono consentiti, ma fotografie e video no;
  • video che mostrano un aborto sono consentiti, a patto che non ci siano scene di nudo;
  • le dirette video di persone che cercano di farsi male da sole sono permesse, perché Facebook non vuole censurare le persone in difficoltà (e la trasmissione può essere utile per avvisare e fare intervenire i conoscenti della persona che la sta realizzando);
  • chiunque abbia più di 100mila persone che seguono il proprio profilo è considerato un personaggio pubblico, e ha quindi meno tutele rispetto agli utenti privati.

Le motivazioni per queste scelte sono indicate in altri documenti interni di Facebook, nei quali si dice per esempio che “online le persone usano un linguaggio violento per esprimere le loro frustrazioni”, e che in un certo senso si sentono libere e al sicuro nel farlo sul social network: “Pensano che il problema non li riguardi e sono indifferenti nei confronti della persona che minacciano, per una mancanza di empatia dovuta alla comunicazione tramite dispositivi e non di persona”.

Espressioni violente
Uno dei manuali dice che le affermazioni violente “non sono molto spesso credibili”, per lo meno fino a quando le espressioni utilizzate “non ci danno elementi sufficienti per concludere che non siano più solamente l’espressione di un sentimento, ma lo spostamento verso un piano” contro qualcuno. Per questo motivo frasi come “ti ammazzo” o “vaffanculo, muori” non possono essere considerate da subito come una vera e propria minaccia: “Le persone esprimono spesso il loro sdegno con minacce o ipotizzando azioni violente, in modi di solito non seri e credibili”.

Il problema è che ogni post è una storia a sé e ci sono molte zone grigie, che rendono difficili e spesso ambigue le reazioni dei moderatori. Un post satirico può avere per esempio contenuti espliciti ed espressioni violente, ma non può essere inserito nella stessa categoria dei messaggi che incitano all’odio. Non sempre un post satirico o umoristico viene però riconosciuto dai moderatori, che quindi lo eliminano segnalando il suo autore al sistema. Una stesso concetto, per quanto controverso, espresso in un certo contesto può essere accettabile, mentre in un altro non lo è e costituisce una violazione. Anche in questo caso trovare il giusto equilibrio è difficile, se non impossibile.

Tutelare i minori
Facebook utilizza sistemi automatici e manuali per tutelare i suoi iscritti in base all’età, con particolare attenzione verso i minori (ci si può iscrivere al social network dai 13 anni in poi, ma chi ne ha di meno spesso mente per potersi iscrivere ugualmente). Per i video più espliciti e violenti, che però non violano le regole, sono previste “protezioni” per i minori in modo che sia meno probabile che possano trovarli, mentre agli adulti viene data la possibilità di scegliere con un avviso prima della riproduzione. Nel caso di video in cui si vedono persone che si fanno del male la linea è di non cancellare il contenuto perché: “può avere importanza nel creare consapevolezza su problemi legati alla salute mentale, su crimini di guerra o altri temi importanti”.

Applicare questa regola a particolari temi, come la violenza nei confronti dei bambini non a sfondo sessuale, è più difficoltoso. Nei documenti di Facebook ottenuti dal Guardian si dice che: “Non interveniamo sulle foto che mostrano abusi verso i bambini. Avvisiamo gli utenti sulla presenza di video sulle violenze che li potrebbero disturbare. Rimuoviamo le immagini di abusi sui bambini se sono condivise con commenti sadici o che esaltano le violenze”. L’idea è che mantenendo questi contenuti si possano fornire informazioni a cittadini e forze dell’ordine, che possono poi intervenire per aiutare i bambini che subiscono violenze.

Moderazione e rilevanza
Dopo l’errore dello scorso anno con la foto della bambina nuda durante la guerra del Vietnam, Facebook ha modificato in parte le regole sulle fotografie che mostrano nudi. Da qualche mese è stata introdotta una maggiore flessibilità nella moderazione: se una fotografia che mostra persone nude ha una “rilevanza giornalistica” per illustrare un fatto, la sua pubblicazione e condivisione è consentita. Ci possono comunque essere casi in cui un’immagine sia temporaneamente sospesa, se per esempio i sistemi che automaticamente riconoscono le fotografie esplicite di nudi non rilevano l’origine dell’immagine.

Cosa ha risposto Facebook
La pubblicazione dei “Facebook Files” da parte del Guardian ha attirato molto interesse perché dimostra, in modo piuttosto inequivocabile, le difficoltà con cui Facebook deve fare i conti per gestire l’enorme quantità di utenti e di contenuti condivisi ogni giorno. Monika Bickert, responsabile delle politiche di gestione del social network, ha spiegato che per Facebook la priorità rimane “tenere gli utenti al sicuro” e ha ricordato che saranno presto assunti altri 3mila moderatori, che si aggiungeranno ai 4.500 già assunti finora per rivedere i contenuti controversi. Bicker ha anche promesso sistemi più semplici da usare per segnalare i post con immagini esplicite, minacce o che incitano all’odio, un punto su cui c’è molto da migliorare secondo gli osservatori più critici.

Come molte aziende che offrono servizi online, Facebook basa buona parte del proprio successo sul numero di persone che utilizzano il suo social network: più ce ne sono, più è alta la probabilità che visualizzino le pubblicità sul sito, la sua unica fonte di ricavo. Per Facebook è quindi essenziale continuare a crescere e ad accumulare nuovi utenti, cosa che renderà sempre più complessa e impegnativa la verifica e il controllo dei contenuti. Il problema non riguarda solamente fotografie e video espliciti o messaggi d’odio, ma anche i post che diffondono notizie false e che secondo molti hanno influito su importanti fatti recenti, come le elezioni presidenziali negli Stati Uniti. Anche per questo motivo Facebook sta lavorando a nuovi sistemi di intelligenza artificiale per rendere più accurata la revisione automatica dei post. Nell’ultimo trimestre, la società ha prodotto ricavi per 8,03 miliardi di dollari, il 49 per cento in più rispetto allo stesso periodo dello scorso anno.