Lo “hate speech” per i social network

Cosa si può dire e cosa no secondo Facebook, Google, YouTube e Twitter, e i fragili equilibri tra libertà di parola e incitamento all'odio

di Antonio Russo – @ilmondosommerso

All’inizio di maggio 2013 Facebook ha superato un miliardo di utenti registrati: i quali, tutti insieme, pubblicano circa due miliardi e mezzo di messaggi al giorno; e circa l’ottanta per cento di questi utenti non sono americani. Su Twitter gli utenti attivi sono circa 200 milioni e la media di tweet in un giorno è di 400 milioni. Su YouTube vengono caricati filmati a una media di 48 ore di nuovi contenuti ogni minuto. Per i social network e i grandi gruppi del web è evidentemente impossibile valutare ogni singolo contenuto caricato dagli utenti, ed è anche tecnicamente difficile sviluppare sistemi automatici efficienti di blocco preventivo dei contenuti offensivi o violenti.

Jeffrey Rosen – un giurista statunitense molto popolare e molto attento alle cose di internet – fu invitato l’anno scorso a un convegno organizzato dalla Facoltà di Legge di Stanford sulla libertà di espressione in rete, a cui parteciparono anche i giovani rappresentanti di grande aziende del web come Google e Facebook. Rosen ha ora raccontato del loro contributo alla discussione e di come si regolano con i contenuti offensivi o pericolosi, e con le espressioni che nella tradizione anglosassone rientrano o potrebbero rientrare nella categoria dello hate speech.

Cos’è lo hate speech
Lo hate speech – espressione spesso tradotta in italiano con la formula “incitamento all’odio” – è una categoria elaborata negli anni dalla giurisprudenza americana per indicare un genere di parole e discorsi che non hanno altra funzione a parte quella di esprimere odio e intolleranza verso una persona o un gruppo, e che rischiano di provocare reazioni violente contro quel gruppo o da parte di quel gruppo. Nel linguaggio ordinario indica più ampiamente un genere di offesa fondata su una qualsiasi discriminazione (razziale, etnica, religiosa, di genere o di orientamento sessuale) ai danni di un gruppo. La condanna dello hate speech – sia sul piano giuridico che nelle conversazioni al bar – sta in un equilibrio elastico ma spesso problematico con la libertà di parola, principio tutelato dal Primo emendamento della Costituzione degli Stati Uniti (e fondante, con le sue regole, di ogni democrazia).

Come la risolvono i social network
Lo hate speech è un tema che alimenta un dibattito molto attuale e ancora più controverso nel caso della libertà di espressione su internet, dove non esistono specifiche normative internazionali condivise. Le grandi aziende come Google e Facebook affidano la compilazione delle norme di utilizzo dei servizi a un gruppo di lavoro specifico, che chiamano scherzosamente i Deciders, “quelli che decidono” (dal nomignolo dato al direttore del settore legale di Twitter, Nicole Wong, quando lavorava per Google).
YouTube – che fu acquistata da Google nel 2006 – vieta esplicitamente lo hate speech, inteso secondo la definizione generale di linguaggio offensivo di tipo discriminatorio. Facebook allarga un po’ le maglie: lo vieta ma aggiunge che sono ammessi messaggi con «chiari fini umoristici o satirici», che in altri casi potrebbero rappresentare una minaccia e che molti potrebbero comunque ritenere «di cattivo gusto». Twitter è il più “aperto”: non vieta esplicitamente lo hate speech e neppure lo cita, eccetto che in una nota sugli annunci pubblicitari (in cui peraltro specifica che la campagne politiche contro un candidato «generalmente non sono considerate hate speech»).

La scorsa settimana alcuni studenti di cartografia della Humboldt State University in California hanno elaborato una “mappa dello hate speech” su Twitter selezionando manualmente i contenuti inequivocabilmente offensivi da un campione di 150 mila tweet contenenti parole dispregiative come nigger (“negro”), cripple (“storpio”) o wetback (“clandestino”). Il campo di ricerca è limitato al territorio degli Stati Uniti e al periodo da giugno 2012 ad aprile 2013, e il risultato – per quanto parziale – può avere chiavi di lettura significative per quel paese. Ma la definizione di hate speech non è univoca in tutto il mondo (a volte non lo è neanche negli Stati Uniti) e solleva un problema più articolato se si considera che la maggior parte degli utilizzatori di social network e portali web non sono americani.

Le tecniche e le regole usate da Facebook
Il capo dei Deciders di Facebook si chiama Dave Wilner: ha ventotto anni, ha scritto lui le norme d’uso del servizio ed è sposato con una collega del team Sicurezza dell’utente, che si occupa di protezione dei bambini e prevenzione dei suicidi (chissà che conversazioni a cena, si chiede Rosen). Il genere di domanda a cui Wilner e il suo team devono cercare di dare risposta ogni giorno è questo: «questa persona in foto è nuda? questa foto di Hitler è razzismo o commento politico? postare una foto di qualcuno alterata tramite Photoshop è bullismo? postare la foto di una pistola è una minaccia credibile? e se la pistola è quella della copertina di un album rap?».

Le difficoltà teoriche ma anche tecniche legate alla valutazione dei contenuti offensivi o critici – quelli che potrebbero provocare incidenti o reazioni violente – hanno spinto aziende come Facebook e YouTube ad affidare una parte importante del lavoro alla comunità di utenti, tramite il sistema delle segnalazioni. Questo serve a elaborare un algoritmo sviluppato in parte tramite l’apprendimento meccanico di questi dati e in parte tramite il lavoro umano di supervisione da parte dei Deciders, che aggiustano il tiro laddove ritengano che una segnalazione sia ingiustificata o condizionata da fattori non rilevanti secondo le norme di utilizzo. Primo emendamento e Libertà di parola sono due concetti rilevantissimi nelle valutazioni finali.

Il Primo emendamento e internet
Il Primo emendamento della Costituzione degli Stati Uniti – che garantisce e tutela la libertà di culto, di parola e di stampa, e a cui diversi commentatori di lingua inglese si appellano spesso in difesa della libertà di espressione in rete – è un argomento molto presente nella giurisprudenza statunitense, e anche oggetto di lunghe controversie. La libertà di espressione è considerata un diritto fondamentale e generalmente non ammette l’interferenza dello Stato: in una sentenza del 1988 molto citata (Boos contro Barry) i giudici ribadivano che «nel dibattito pubblico i cittadini dovrebbero tollerare le parole offensive, e perfino quelle oltraggiose, per fornire spazio sufficiente alle libertà protette dal Primo emendamento».

Ma la libertà di espressione non è un diritto assoluto – conosce ovvie e meno ovvie regolazioni – e non tutte le espressioni individuali sono considerate materia da Primo emendamento: quelle che non riguardano temi di interesse pubblico e da cui la società non potrebbe trarre beneficio non hanno alcuna tutela costituzionale (unprotected speech). Viene spesso citato un caso del 1942: un tale Chaplinsky diede in pubblico del “maledetto fascista e delinquente” a un agente dello stato del New Hampshire, la corte lo condannò – non per il bersaglio dell’offesa ma per l’offesa in sé – e lui si appellò inutilmente al Primo emendamento. In un passaggio della sentenza (citata anche questa in diversi testi di studi giuridici) la corte specificò:

«Ci sono alcune categorie di discorso ben definite e limitate, la cui prevenzione e punizione non ha mai sollevato alcun problema costituzionale. Sono le volgarità e le oscenità, la calunnia e l’insulto, le parole di scontro, cioè quelle che per la loro stessa espressione inferiscono un danno o tendono a provocare una violazione dell’ordine pubblico. Queste espressioni non sono parte essenziale di alcuna esposizione di idee, e sono di così scarsa utilità sociale ai fini della verità che qualsiasi beneficio che potrebbe derivarne è ampiamente superato da un interesse sociale più grande nell’ordine e nella moralità».

Richiamare il Primo emendamento nel dibattito sulla libertà in rete è utile per sottolineare l’importanza del diritto alla libertà di parola nella giurisprudenza americana; richiamarlo come argomento a sostegno di una libertà assoluta – o per definire a priori cosa sia lecito o non lecito dire su internet – non è sufficiente, perché non tutte le parole sono protette da tutela costituzionale.

Secondo Jeffrey Rosen i Deciders dei grandi social network dovrebbero ispirarsi tendenzialmente a un richiamo costante del Primo emendamento, e privilegiare una politica che anteponga sempre la libertà di parola eccetto che in un caso: quando la parola rappresenta una minaccia imminente per l’ordine pubblico.

Torniamo a Facebook
In materia di libertà di parola e Primo emendamento, Facebook vieta gli attacchi ai gruppi ma non alle istituzioni. I testi «odio l’Islam» o «odio il Papa» sono ammessi; «odio i musulmani» o «odio i cattolici» no. Sono ammesse caricature dei membri di un gruppo – come anche attacchi alla loro fede o ai loro leader – ma non si può diffamare interamente il gruppo. È proprio la perentorietà di queste norme (per quanto schematiche o discutibili) che ha permesso spesso a Facebook di evitare la rimozione forzata di contenuti ritenuti blasfemi dai governi stranieri e dai loro cittadini.

Facebook riceve ogni settimana più di due milioni di richieste di rimozione di materiale da parte degli utenti. In genere, la compilazione di norme di utilizzo sempre più chiare e definite rimane una priorità rispetto al lavoro tecnico di perfezionamento degli algoritmi, perché alla fine i Deciders si ritrovano spesso di fronte alla necessità di correggere manualmente gli esiti dei processi automatici o prendere provvedimenti rapidi in risposta alle richieste di rimozione.

I problemi con l’autocomplete di Google
Anche Google corregge manualmente le risposte restituite dagli algoritmi quando non rispettano le policy dell’azienda. Ogni giorno vengono regolarmente esclusi dai risultati di ricerca i contenuti che violano le norme. Un caso più interessante è quello della funzione di autocompletamento (i suggerimenti proposti da Google in base alle ricerche più frequenti effettuate dagli utenti): qui la correzione dei suggerimenti richiede un lavoro di aggiornamento continuo da parte degli operatori umani. Se nella sua ricerca l’utente digita parole chiaramente appartenenti al lessico dell’hate speech (come nigger) Google disattiva la funzione di autocompletamento. In altri casi è più complicato, e occorrono delle segnalazioni per far rimuovere dei suggerimenti inopportuni.

(Giuliano Amato, i massoni e Google)

A febbraio – qualche mese dopo la strage nella scuola del Connecticut, che evidenziò tra le altre cose una diffusa disinformazione sull’autismo – un gruppo in difesa delle persone affette da autismo segnalò a Google che se l’utente cominciava la sua ricerca con la stringa di testo autistic people should (“gli autistici dovrebbero”) l’autocompletamento suggeriva predicati come die (“morire”) o be exterminated (“essere sterminati”). Uno degli attivisti disse: «non occorre che Google ci ricordi che non siamo molto popolari». In questi casi Google non può disattivare l’autocompletamento per qualsiasi occorrenza della parola autistic: elimina manualmente ciascun suggerimento inadeguato (ci fu anche un caso italiano nel 2011). E arriva sempre dopo: ha eliminato il suggerimento segnalato a febbraio da quel gruppo di attivisti ma in questo momento – ad esempio – gli stessi suggerimenti di ricerca (die) sono ancora proposti per le ricerche che cominciano con autistic children should (“i bambini autistici dovrebbero”) o anche fat people should (“le persone grasse dovrebbero”).

 

Per quanto i sistemi adottati dai grandi gruppi del web siano efficienti e complessi (più di quanto possa sembrare ai non addetti), alcuni episodi recenti di rilievo internazionale anche gravi sono stati comunque associati – a torto o a ragione – all’uso di internet e dei nuovi media, sollevando ancora una volta il problema della libertà di espressione in rete.

Il caso del film L’innocenza dei musulmani
A settembre dell’anno scorso la diffusione su internet del trailer di un film di propaganda anti-islamica – intitolato L’innocenza dei musulmani – portò a una serie di proteste violente in molti paesi a maggioranza musulmana e a Bengasi, dove l’ambasciatore statunitense in Libia, Chris Stevensmorì in seguito agli scontri. Mentre il video veniva diffuso e le proteste continuavano, Dave Wilner – insieme ai suoi colleghi Deciders di Facebook – decise che il video non violava le norme perché nel video nessuno diceva esplicitamente qualcosa contro i musulmani. Anche YouTube decise di non rimuoverlo: si limitò a bloccarne provvisoriamente la visione dalla Libia e dall’Egitto. E da allora adotta in buona sostanza un approccio simile a quello di Facebook:

«A volte c’è una linea di demarcazione molto labile tra ciò che viene considerato e ciò che non viene considerato incitamento all’odio (hate speech). Ad esempio, è generalmente ammesso criticare una nazione, ma non è accettabile generalizzare in modo offensivo sulle persone di una determinata nazionalità».

In quei giorni il presidente egiziano Mohamed Morsi chiese esplicitamente la rimozione del video in un discorso alle Nazioni Unite. Gli rispose il presidente degli Stati Uniti Barack Obama, ricordando che il Primo emendamento impone al governo di non prendere parte nelle dispute religiose, difendendo la scelta di YouTube e rigettando l’idea di Morsi, che riteneva la blasfemia del video sufficiente a giustificarne la rimozione. Jeffrey Rosen racconta che tuttavia – per difendere gli interessi internazionali degli Stati Uniti e per evitare il rischio di altri incidenti – alcuni membri del governo chiesero a YouTube di modificare le regole di utilizzo del servizio in modo da rendere giustificabile l’eliminazione del video. Ma i Deciders di YouTube ribadirono che la valutazione del contenuto del video doveva avere la priorità sulla considerazione dei rischi di una crisi internazionale.

Secondo Rosen – che sostiene peraltro che il legame tra la diffusione del video e gli scontri non fu mai del tutto chiarito e verificato – in quei momenti concitati l’amministrazione Obama sbagliò e i Deciders presero la decisione giusta. Se YouTube avesse rimosso il video, tutti i link presenti negli articoli del web che già trattavano la storia avrebbero rimandato a una pagina vuota, e questo avrebbe impedito ai lettori di comprendere la vicenda e di farsi un’idea.

Il codice di condotta approvato dalle Nazioni Unite
A dicembre dell’anno scorso l’Unione internazionale delle Telecomunicazioni (ITU) – l’organo delle Nazioni Unite che definisce le norme di utilizzo dei mezzi di telecomunicazione – ha approvato in una conferenza a Dubai un codice internazionale di sicurezza informatica (International Code of Conduct for Information Security) presentato da Cina, Russia, Tajikistan e Uzbekistan un anno prima. Il codice raccoglie un insieme di «principi fondamentali per la sicurezza della rete e dell’informazione» e riconosce ai 193 stati membri il diritto di difendere le rispettive infrastrutture informatiche da eventuali attacchi, interferenze o sabotaggi, nel rispetto del diritto all’informazione e in conformità delle leggi nazionali vigenti. Uno dei passaggi più problematici è quello che impone a tutte le nazioni di impegnarsi a contenere non solo il diffondersi di informazioni che possano incitare al terrorismo e all’«estremismo», ma anche quelle che potrebbero genericamente mettere a rischio la stabilità e lo sviluppo politico, economico e sociale degli altri stati.

(La Cina restringe ancora l’accesso a Internet)

Google, Facebook e altre grandi società del web si opposero fortemente all’approvazione del codice di condotta da parte dell’Unione. Prima del summit di Dubai, Vinton Cerf – uno dei creatori del protocollo di rete che fa funzionare internet (TCP/IP) – criticò l’idea che dei governi nazionali potessero imporre delle regole internazionali di uso del web, ricordando peraltro che ciascuno dei 193 stati membri avrebbe avuto il medesimo peso nella votazione, a prescindere dalle proprie posizioni in materia di diritti fondamentali. Secondo Cerf, il successo di internet invece si deve alla partecipazione civile e al fatto che i governi permettono alla rete di autoregolarsi attraverso criteri nati spontaneamente dalla collaborazione tra utenti.

Il “diritto di essere dimenticati”
A gennaio il commissario dell’Unione Europea Viviane Reding ha presentato una nuova proposta di legge in materia di privacy – il “diritto di essere dimenticati” – che permetterebbe agli utenti dei 27 paesi dell’UE di ottenere da Google, Facebook o qualsiasi altra società del web la cancellazione definitiva di foto, video o altri dati personali dai server delle società (che oggi conservano i diritti sul materiale caricato, anche dopo la rimozione da parte dell’utente). Di fronte alla richiesta dell’utente – ricorda Rosen – il social network avrebbe così due possibilità: eliminare subito il materiale o appellarsi a una commissione europea e sperare che questa stabilisca che la conservazione di quei dati sui server rappresenti un servizio di pubblico interesse o abbia valore giornalistico, letterario o scientifico. In caso contrario la società potrebbe essere condannata a pagare una multa pari al 2 per cento del fatturato annuale (che nel caso di Google significherebbe un miliardo per ciascun caso).

La politica flessibile di Twitter
All’inizio del 2012 Twitter modificò le regole di utilizzo del social network introducendo per la prima volta un criterio geografico di censura selettiva. In presenza di una richiesta formale da parte di un’autorità verificata, oggi la società può decidere di oscurare i tweet o gli account che violino le leggi di una determinata nazione (Country Withheld Content) soltanto in quella nazione: in questo caso il messaggio continua a essere visibile per gli utenti di altre nazionalità (ma cambiando le impostazioni dell’account si può visualizzare il messaggio anche dal paese in cui è stato dichiarato illegale). Inoltre Twitter ha deciso di rendere visibili e raccogliere le richieste di rimozione in un sito ufficiale in cui fornisce statistiche semestrali sul numero complessivo di richieste pervenute (anche richieste di informazioni private da parte dei governi e richieste di rimozione di contenuti per presunte violazioni di copyright).

(Twitter e la censura)

La nuova politica di Twitter è stata accolta da alcuni come una pericolosa limitazione della libertà di espressione e da altri come un importante passo avanti dal punto di vista della flessibilità, dato che esclude la rimozione completa del contenuto (a meno che non violi le regole generali di utilizzo).

I tweet antisemiti
La prima occasione in cui Twitter adottò le nuove norme fu a ottobre dell’anno scorso, quando bloccò in Germania l’account di un gruppo neonazista segnalato dalle autorità del Land della Bassa Sassonia, che inviarono a Twitter una richiesta ufficiale. In base alle nuove regole di restrizione geografica, l’account fu bloccato in Germania ma è tuttora visibile da qualsiasi altro paese. Il responsabile legale di Twitter, Alex MacGillivray, scrisse in un tweet: «non vorremmo bloccare contenuti mai; ma è una buona cosa disporre di strumenti che permettono di farlo in modo circoscritto e trasparente».

Qualche giorno dopo, su segnalazione di un gruppo ebraico di studenti francesi (Union des Étudiants Juifs de France), Twitter ha oscurato in Francia la maggior parte di una serie di tweet pubblicati con l’hashtag #unbonjuif, “un buon ebreo” (un “hashtag” è il simbolo che solitamente definisce il tema di una conversazione collettiva). Nel giro di pochi giorni lo stesso hashtag cominciò a essere utilizzato per far circolare tweet di protesta contro gli antisemiti, a riprova – secondo Rosen – che la comunità di Twitter è in grado di autoregolarsi e isolare autonomamente le devianze, senza richiedere grossi interventi dall’esterno.

(Il caso dei tweet antisemiti in Francia)

Negli stessi giorni però circolarono con nuovi hashtag (#unjuifmort) anche diversi tweet di solidarietà verso gli utenti bloccati da Twitter, a cui seguì una richiesta ufficiale di rimozione da parte della UEJF e in seguito anche una causa legale contro Twitter, che non accolse la richiesta della UEJF di rivelare l’identità degli utenti che avevano pubblicato i tweet antisemiti. Dal punto di vista tecnico, Twitter oscurò i contenuti ritenuti illegali dalla giurisdizione francese lasciando poi a ciascun utente autore del tweet – o dei tweet – la responsabilità di provvedere a eliminarli o mantenerli (per esempio, un tweet segnalato dalla UEJF nella lista presentata a Twitter è ancora visibile agli utenti di nazionalità non francese).