La Corte Suprema statunitense sta per esprimersi su un pezzo importante di internet

È la famosa "Sezione 230", che garantisce ai social network di non essere legalmente responsabili dei contenuti degli utenti

(Simone Joyner/Getty Images)
(Simone Joyner/Getty Images)
Caricamento player

Martedì la Corte Suprema statunitense si esprimerà su un caso che riguarda uno dei pezzi più importanti di internet per come lo conosciamo oggi: la Sezione 230 del Communications Decency Act, una legge degli Stati Uniti approvata nel 1996 che garantisce alle aziende informatiche di non poter essere ritenute legalmente responsabili per i contenuti pubblicati dai loro utenti, come per esempio i post sui social network.

In questi anni la Sezione 230 è stata spesso oggetto di critiche e discussioni nei dibattiti sulla libertà di espressione online, soprattutto sui social network: anche una modifica circoscritta potrebbe cambiare «come queste aziende fanno soldi e come noi interagiamo su internet», ha spiegato per esempio al New York Times Hany Farid, un esperto di libertà di espressione della University of California di Berkeley.

Il caso su cui si esprimerà la Corte Suprema riguarda Nohemi Gonzalez, una studentessa statunitense di 23 anni uccisa a Parigi durante gli attentati terroristici avvenuti il 13 novembre 2015. Il gruppo degli attentatori – il cui unico sopravvissuto, Salah Abdeslam, l’anno scorso è stato condannato all’ergastolo – aveva rivendicato la propria appartenenza all’ISIS, o Stato Islamico. I genitori di Gonzalez e alcune associazioni che hanno seguito il loro caso dal punto di vista legale sostengono che gli attentatori si siano radicalizzati e legati allo Stato Islamico anche guardando video pubblicati su YouTube. In sostanza, ritengono che YouTube sia parzialmente responsabile per la morte della loro figlia, e quindi hanno denunciato sia YouTube sia Google, la società che lo possiede (che oggi è diventata il conglomerato Alphabet).

Il dibattito sulla Sezione 230 riemerge ciclicamente nel dibattito pubblico statunitense. Venne introdotta nel 1996, quando internet iniziava a diffondersi in tutto il mondo, e in particolare negli Stati Uniti, nelle sue forme prettamente commerciali, ma tutto sommato ancora primordiali: non esistevano i social network né gli smartphone, l’e-commerce era ancora agli inizi, le aziende che operavano esclusivamente online erano assai rare. Si pensava forse un po’ ingenuamente che internet fosse una struttura “neutra”, una scatola vuota i cui contenuti erano creati e condivisi dagli utenti, e che quindi fossero loro a doverne rispondere da un punto di vista legale, eventualmente.

Anche i più diffusi social network, quasi tutti statunitensi, fino a pochi anni fa sostenevano di essere delle piattaforme sostanzialmente neutrali, con uno scarsissimo impatto sulla diffusione e la circolazione dei propri contenuti. Negli ultimi anni si è capito che le cose non stanno più così: diverse inchieste giornalistiche hanno dimostrato per esempio come l’algoritmo di YouTube che suggerisce all’utente quali video guardare proponga contenuti sempre più polarizzati e radicali, nella speranza di tenerlo sempre più agganciato allo schermo (e quindi ai contenuti pubblicitari con cui YouTube inframmezza i propri video).

QAnon, la teoria complottista di estrema destra più diffusa nella politica statunitense, ha guadagnato decine di migliaia di seguaci grazie alla diffusione dei suoi video su YouTube e Facebook, oltre alla proliferazione di propri contenuti su alcuni social network più prettamente testuali come Reddit e 4Chan. Negli ultimi anni il rapido aumento di contenuti di propaganda terrorista, ma anche razzisti, misogini e ostili alla comunità LGBTQ+ ha reso necessario un controllo sempre più stretto dei contenuti da parte delle piattaforme, quindi la messa a punto dei meccanismi interni di moderazione.

Secondo alcuni osservatori tutte queste attività, sia il suggerimento di contenuti da fruire sia, più in secondo piano, un maggiore intervento sulla moderazione, rende di fatto le grandi piattaforme paragonabili agli editori, e quindi più distanti da ciò che prevedono la Sezione 230 negli Stati Uniti e leggi simili in altri paesi.

Facebook e le altre respingono da sempre questa visione e sostengono di non potere essere equiparate agli editori, perché offrono comunque un servizio diverso ed estraneo alla produzione di contenuti propri. Il confine è però estremamente labile e lo è diventato sempre di più, per esempio, man mano che Facebook si è dotato di redazioni per fare aggregazione e scelta dei contenuti, o YouTube ha iniziato a produrre propri video da offrire sulla sua piattaforma.

Alcuni attivisti per la libertà di espressione ritengono che nonostante tutto la Sezione 230 non vada toccata in alcun modo, perché anche un minimo ritocco potrebbe avere conseguenze enormi per esempio in posti dove la libertà di espressione non è esplicitamente garantita. «Il caso Gonzalez può determinare se i social network continueranno a garantire spazio per la libertà di espressione di ogni tipo, dai dibattiti politici a persone che condividono la propria arte fino agli attivisti per i diritti umani che informano il mondo sulle cose che non vanno nei propri paesi», ha detto al Guardian Paul Barrett, attivista per i diritti umani dello Stern Center for Business and Human Rights.

Anche i principali social network, ovviamente, ritengono che la Sezione 230 non vada modificata. In questi giorni Google non sta commentando il caso Gonzalez, ma a dicembre la responsabile degli affari legali, Halimah DeLaine Prado, aveva definito «estremamente importante» che la Sezione 230 continuasse a esistere nella sua attuale forma. I due principali partiti politici statunitensi, i Democratici e i Repubblicani, sono invece favorevoli a una modifica ma non hanno mai trovato un compromesso su come riformarla: il futuro a breve e medio termine della Sezione 230 dipenderà probabilmente dalla decisione della Corte Suprema sul caso Gonzalez o su eventuali altri casi simili in futuro.

Nell’Unione Europea la situazione normativa è leggermente diversa: a novembre è entrato in vigore il Digital Services Act (DSA), che a partire dall’estate del 2023 obbligherà i social network più grossi ad avere maggiori responsabilità sui contenuti problematici ospitati al proprio interno, e a eliminarli con estrema rapidità, pena ingenti multe pecuniarie.