• Internet
  • Questo articolo ha più di dieci anni

Lo “hate speech” per i social network

Cosa si può dire e cosa no secondo Facebook, Google, YouTube e Twitter, e i fragili equilibri tra libertà di parola e incitamento all'odio

di Antonio Russo – @ilmondosommerso

Richiamare il Primo emendamento nel dibattito sulla libertà in rete è utile per sottolineare l’importanza del diritto alla libertà di parola nella giurisprudenza americana; richiamarlo come argomento a sostegno di una libertà assoluta – o per definire a priori cosa sia lecito o non lecito dire su internet – non è sufficiente, perché non tutte le parole sono protette da tutela costituzionale.

Secondo Jeffrey Rosen i Deciders dei grandi social network dovrebbero ispirarsi tendenzialmente a un richiamo costante del Primo emendamento, e privilegiare una politica che anteponga sempre la libertà di parola eccetto che in un caso: quando la parola rappresenta una minaccia imminente per l’ordine pubblico.

Pubblicità

Torniamo a Facebook
In materia di libertà di parola e Primo emendamento, Facebook vieta gli attacchi ai gruppi ma non alle istituzioni. I testi «odio l’Islam» o «odio il Papa» sono ammessi; «odio i musulmani» o «odio i cattolici» no. Sono ammesse caricature dei membri di un gruppo – come anche attacchi alla loro fede o ai loro leader – ma non si può diffamare interamente il gruppo. È proprio la perentorietà di queste norme (per quanto schematiche o discutibili) che ha permesso spesso a Facebook di evitare la rimozione forzata di contenuti ritenuti blasfemi dai governi stranieri e dai loro cittadini.

Facebook riceve ogni settimana più di due milioni di richieste di rimozione di materiale da parte degli utenti. In genere, la compilazione di norme di utilizzo sempre più chiare e definite rimane una priorità rispetto al lavoro tecnico di perfezionamento degli algoritmi, perché alla fine i Deciders si ritrovano spesso di fronte alla necessità di correggere manualmente gli esiti dei processi automatici o prendere provvedimenti rapidi in risposta alle richieste di rimozione.

I problemi con l’autocomplete di Google
Anche Google corregge manualmente le risposte restituite dagli algoritmi quando non rispettano le policy dell’azienda. Ogni giorno vengono regolarmente esclusi dai risultati di ricerca i contenuti che violano le norme. Un caso più interessante è quello della funzione di autocompletamento (i suggerimenti proposti da Google in base alle ricerche più frequenti effettuate dagli utenti): qui la correzione dei suggerimenti richiede un lavoro di aggiornamento continuo da parte degli operatori umani. Se nella sua ricerca l’utente digita parole chiaramente appartenenti al lessico dell’hate speech (come nigger) Google disattiva la funzione di autocompletamento. In altri casi è più complicato, e occorrono delle segnalazioni per far rimuovere dei suggerimenti inopportuni.

(Giuliano Amato, i massoni e Google)

A febbraio – qualche mese dopo la strage nella scuola del Connecticut, che evidenziò tra le altre cose una diffusa disinformazione sull’autismo – un gruppo in difesa delle persone affette da autismo segnalò a Google che se l’utente cominciava la sua ricerca con la stringa di testo autistic people should (“gli autistici dovrebbero”) l’autocompletamento suggeriva predicati come die (“morire”) o be exterminated (“essere sterminati”). Uno degli attivisti disse: «non occorre che Google ci ricordi che non siamo molto popolari». In questi casi Google non può disattivare l’autocompletamento per qualsiasi occorrenza della parola autistic: elimina manualmente ciascun suggerimento inadeguato (ci fu anche un caso italiano nel 2011). E arriva sempre dopo: ha eliminato il suggerimento segnalato a febbraio da quel gruppo di attivisti ma in questo momento – ad esempio – gli stessi suggerimenti di ricerca (die) sono ancora proposti per le ricerche che cominciano con autistic children should (“i bambini autistici dovrebbero”) o anche fat people should (“le persone grasse dovrebbero”).

 

Per quanto i sistemi adottati dai grandi gruppi del web siano efficienti e complessi (più di quanto possa sembrare ai non addetti), alcuni episodi recenti di rilievo internazionale anche gravi sono stati comunque associati – a torto o a ragione – all’uso di internet e dei nuovi media, sollevando ancora una volta il problema della libertà di espressione in rete.

Il caso del film L’innocenza dei musulmani
A settembre dell’anno scorso la diffusione su internet del trailer di un film di propaganda anti-islamica – intitolato L’innocenza dei musulmani – portò a una serie di proteste violente in molti paesi a maggioranza musulmana e a Bengasi, dove l’ambasciatore statunitense in Libia, Chris Stevensmorì in seguito agli scontri. Mentre il video veniva diffuso e le proteste continuavano, Dave Wilner – insieme ai suoi colleghi Deciders di Facebook – decise che il video non violava le norme perché nel video nessuno diceva esplicitamente qualcosa contro i musulmani. Anche YouTube decise di non rimuoverlo: si limitò a bloccarne provvisoriamente la visione dalla Libia e dall’Egitto. E da allora adotta in buona sostanza un approccio simile a quello di Facebook:

«A volte c’è una linea di demarcazione molto labile tra ciò che viene considerato e ciò che non viene considerato incitamento all’odio (hate speech). Ad esempio, è generalmente ammesso criticare una nazione, ma non è accettabile generalizzare in modo offensivo sulle persone di una determinata nazionalità».

In quei giorni il presidente egiziano Mohamed Morsi chiese esplicitamente la rimozione del video in un discorso alle Nazioni Unite. Gli rispose il presidente degli Stati Uniti Barack Obama, ricordando che il Primo emendamento impone al governo di non prendere parte nelle dispute religiose, difendendo la scelta di YouTube e rigettando l’idea di Morsi, che riteneva la blasfemia del video sufficiente a giustificarne la rimozione. Jeffrey Rosen racconta che tuttavia – per difendere gli interessi internazionali degli Stati Uniti e per evitare il rischio di altri incidenti – alcuni membri del governo chiesero a YouTube di modificare le regole di utilizzo del servizio in modo da rendere giustificabile l’eliminazione del video. Ma i Deciders di YouTube ribadirono che la valutazione del contenuto del video doveva avere la priorità sulla considerazione dei rischi di una crisi internazionale.

« Pagina precedente 1 2 3 Pagina successiva »