La vita dei moderatori di Facebook è ancora grama

Il Guardian ha raccontato le condizioni di lavoro di una società esterna di Berlino, mostrando come sia cambiato poco dopo le inchieste dei mesi scorsi

(Sean Gallup/Getty Images)
(Sean Gallup/Getty Images)

A distanza di alcuni mesi dalle inchieste pubblicate da The Verge sui forti stress psicologici cui sono sottoposti i moderatori di Facebook, le cose non sembrano essere migliorate molto presso alcune delle società esterne che effettuano la moderazione per conto del social network. Il Guardian ha intervistato diversi dipendenti di un’azienda di Berlino che ha in appalto parte dei servizi per moderare i contenuti, ottenendo racconti molto simili a quelli ottenuti nei mesi scorsi da The Verge, e che avevano spinto Facebook ad annunciare provvedimenti e miglioramenti.

Per la nuova inchiesta sono stati intervistati ex e attuali dipendenti dell’azienda berlinese, che hanno spiegato di avere visto colleghi cambiare il loro comportamento, diventando sempre più interessati alle teorie del complotto o a posizioni e organizzazioni estremiste. Molti hanno detto di sentirsi schiacciati dall’enorme mole di lavoro e dai ritmi serrati imposti, che richiedono la moderazione di centinaia di contenuti per ogni turno di lavoro. In otto ore, ogni impiegato revisiona centinaia di immagini con contenuti violenti, nudità e messaggi di ogni tipo (soprattutto d’odio), con la responsabilità di decidere se possano o meno rimanere su Facebook. Gli uffici sono attivi 24 ore su 24 tutta la settimana e ci sono turni sia nei fine settimana sia di notte, con una paga molto bassa.

Alcuni dipendenti hanno spiegato che la parte più difficile è la moderazione delle conversazioni private tra adulti e minorenni, che vengono indicate dagli algoritmi come potenziali molestie e devono essere quindi verificate. Nel 90 per cento dei casi i contenuti di questi scambi sono di natura sessuale: chat portate avanti da uomini statunitensi ed europei, che cercano di stringere contatti con bambini nelle Filippine e in altri paesi in via di sviluppo. Molti di loro provano a contrattare lo scambio di fotografie con contenuti sessuali, promettendo il pagamento di 10-20 dollari per ogni immagine.

I dipendenti dell’azienda di Berlino concordano sull’importanza di avere un gruppo di persone che si occupi di rimuovere i contenuti dannosi dai social network, ma dicono che dovrebbe esserci un confronto più aperto e onesto sulla natura del lavoro che svolgono. Dicono di essere i primi a sperimentare una nuova professione, non riconosciuta e poco normata, dove è difficile trovare aiuto e conforto per superare le situazioni più complesse e dolorose causate dalla moderazione dei messaggi controversi o violenti.

Nei racconti dei dipendenti di Berlino ci sono similitudini con ciò che avevano raccontato i loro colleghi statunitensi a The Verge. La continua esposizione a contenuti violenti e a opinioni radicalizzate fa sì che alcuni dipendenti si sentano più vulnerabili e inizino a temere per la loro incolumità. La percezione di un mondo violento e pericoloso, più di quanto sia in realtà, porta a conseguenze imprevedibili. Un dipendente ha raccontato di avere notato un proprio collega intento a cercare online una pistola elettrica (Taser) da acquistare per autodifesa.

Al Guardian sono stati segnalati inoltre casi di dipendenti che hanno iniziato ad assumere farmaci, droghe e alcol per provare ad alleviare lo stress, in alcuni casi peggiorando la situazione. Come richiesto da Facebook, nell’azienda è previsto un servizio di assistenza psicologica, ma le sedute sono brevi e la loro qualità piuttosto bassa. In molti casi, inoltre, i consulenti consigliano di rivolgersi al sistema sanitario pubblico, scaricando quindi il problema all’esterno dell’azienda.

Dopo la pubblicazione dell’inchiesta su The Verge, Facebook aveva annunciato provvedimenti per migliorare le condizioni dei lavoratori nelle aziende cui affida il compito di moderare i suoi contenuti, ma secondo le testimonianze raccolte a Berlino dal Guardian le cose non sono molto migliorate.

Poco dopo la pubblicazione dell’articolo negli Stati Uniti, un manager di Facebook aveva fatto visita all’azienda di Berlino per verificare le condizioni dei lavoratori. Dopo una riunione sul posto, si era deciso di dimezzare la richiesta di revisionare 1.000 contenuti per ogni turno di lavoro, cosa che implicava di prendere una decisione ogni 30 secondi. Ora il limite è di 400-500 revisioni per turno, ma ciò significa comunque che in media i moderatori possano dedicare a ogni singolo caso un solo minuto.

Facebook ha risposto al Guardian dicendo di essere costantemente al lavoro per assicurarsi che le sue aziende partner, coinvolte nella moderazione, offrano il sostegno necessario ai dipendenti in termini di qualità del lavoro, formazione, sostegno psicologico e tecnologico. Uno degli obiettivi, dicono, è ridurre il più possibile l’esposizione a contenuti espliciti e violenti, con nuovi sistemi di riconoscimento delle immagini, che consentano maggiori automatismi nella moderazione. Affermazioni analoghe erano state fornite nei mesi scorsi in seguito alla pubblicazione di altri articoli sulle difficili condizioni di lavoro di migliaia di moderatori.