Pendolari in metropolitana a Pechino, in Cina, il 26 febbraio 2019. (AP Photo/ Andy Wong, File)
  • Mondo
  • domenica 20 Dicembre 2020

La Cina userà il riconoscimento facciale per identificare gli uiguri?

Un software testato da Huawei e da un'altra società cinese sarebbe in grado di individuarli e di mandare un avviso alla polizia

Pendolari in metropolitana a Pechino, in Cina, il 26 febbraio 2019. (AP Photo/ Andy Wong, File)

La grossa azienda di telecomunicazioni Huawei e la start-up tecnologica Megvii – entrambe cinesi – hanno testato un software per i sistemi di videosorveglianza che sarebbe in grado di riconoscere età, sesso ed etnia di ogni persona attraverso le immagini scansionate. Il software sarebbe stato programmato per mandare una sorta di “allarme” alla polizia ogni qualvolta il sistema di sorveglianza scansioni una persona di etnia uigura, la minoranza di religione islamica sistematicamente discriminata e perseguitata dal governo cinese. Le due aziende hanno negato che gli scopi delle loro tecnologie siano questi, ma sia in Cina che in altri paesi software simili vengono già utilizzati per controllare le persone o reprimere i dissidenti, con grosse implicazioni etiche e giuridiche.

Della vicenda si sono occupati due giornalisti del Washington Post, che hanno visto il rapporto dei test sul software ottenuto tramite IPVM, un’organizzazione indipendente che si occupa di analizzare e valutare i sistemi di videosorveglianza.

Il documento, firmato dai funzionari di Huawei, si trovava sul sito dell’azienda e chiariva che il software era stato sviluppato nel 2018, e testato di recente. Dopo la pubblicazione dell’articolo sul Washington Post, lo scorso 8 dicembre, il documento è stato tolto dal sito di Huawei. Il caso ha tuttavia riacceso il dibattito sull’uso controverso dei sistemi di videosorveglianza, che in Cina sono sempre più diffusi.

Funzionari del governo cinese citati dal Washington Post hanno sostenuto che i sofisticati sistemi di riconoscimento facciale riflettano l’avanzamento tecnologico della Cina e agevolino il lavoro della polizia nel garantire il livello di sicurezza nelle città. Per le ong e gli osservatori internazionali, invece, sono strumenti che consentono di reprimere coloro che vengono visti come un pericolo per il mantenimento del controllo esercitato dal governo sui cittadini. Secondo John Honovich, il fondatore di IPVM, si tratta di tecnologie «spaventose» e «assolutamente normalizzate» che vengono impiegate anche per discriminare.

– Leggi anche: La storia della ricercatrice che accusa Google di censura

Secondo Amnesty, negli ultimi anni almeno 1 milione di uiguri sono stati perseguitati e detenuti in diversi “campi di rieducazione”, come li chiama la Cina. Il governo cinese ha sempre negato di aver represso o trattato diversamente la minoranza uigura, descrivendo spesso le testimonianze sulle loro condizioni di vita “fake news” e definendo semmai la repressione di questa minoranza come una campagna antiterroristica. L’esistenza di campi di detenzione per gli uiguri è stata però verificata da inchieste giornalistiche e rapporti dell’ONU. Le ricostruzioni hanno mostrato come gli uiguri vengano rinchiusi nei campi senza avere possibilità di difendersi, né di sostenere un processo; come siano sottoposti a indottrinamento, lavori forzati, e in alcuni casi anche a torture.

Nel 2018 alcuni ricercatori cinesi avevano progettato un algoritmo che era in grado di riconoscere, distinguendoli, i «tratti distintivi» dei volti degli uiguri, dei tibetani e dei coreani. Come aveva raccontato il New York Times, inoltre, l’anno scorso un software per il riconoscimento facciale impiegato dal dipartimento di polizia della città di Sanmenxia – circa 1.200 chilometri a nord-ovest di Shanghai – aveva individuato i volti degli uiguri 500mila volte in un solo mese. Diversi software impiegati per la videosorveglianza sviluppati da Megvii sono utilizzati in più di 110 cittadine cinesi.

Secondo quanto ha raccontato Maya Wang, osservatrice della ong Human Rights Watch, in Cina questi software sono sempre più diffusi anche per controllare i dissidenti e reprimere le proteste. Wang ha aggiunto che le ambizioni del governo cinese vanno ben oltre la persecuzione delle minoranze: il vero obiettivo sarebbe utilizzare i sistemi di riconoscimento facciale per criminalizzarle.

Oltre alle implicazioni etiche dell’utilizzo sistematico della videosorveglianza per controllare i cittadini, però, c’è anche un altro tipo di problema: i software infatti potrebbero fornire risultati inaccurati perché il funzionamento dei programmi dipende da alcuni fattori, come l’intensità della luce o la qualità delle immagini scansionate; in più, non è detto che i tratti somatici delle persone siano nettamente distinguibili o attribuibili con totale certezza a una o all’altra etnia.

Sia Huawei che Megvii hanno confermato di aver lavorato insieme per sviluppare in tutto tre software per il riconoscimento facciale e hanno detto che il rapporto su quello testato di recente era vero. Tuttavia il portavoce di Huawei, Glenn Schloss, ha detto che il documento faceva riferimento «soltanto a un test e non ha alcuna applicazione nel mondo reale»; Schloss ha anche specificato che l’azienda «vende solo prodotti dagli utilizzi generici per questo tipo di sperimentazione ma non fornisce algoritmi o applicazioni personalizzati». Un portavoce di Megvii ha detto che i software sviluppati dall’azienda «non sono programmati per individuare specifici gruppi etnici».

– Leggi anche: Il riconoscimento facciale deve preoccuparci?

Jonathan Frankle, ricercatore del Laboratorio di Computer Science e Artificial Intelligence del MIT (Massachusetts Institute of Technology), ha spiegato che le società di sviluppo software stanno investendo parecchio sui sistemi di riconoscimento facciale perché sono molto redditizi. Negli Stati Uniti e in altri paesi, per esempio, vengono utilizzati da alcuni anni durante le indagini criminali; il loro uso è ritenuto comunque controverso, perché secondo alcuni violerebbe le leggi che tutelano i cittadini sotto indagine. In altri paesi, come l’Uganda, è stato confermato che sistemi simili vengono usati per sorvegliare gli oppositori politici e identificare chi partecipa alle proteste.

Nel 2019 otto società cinesi furono sanzionate dagli Stati Uniti per il loro coinvolgimento in attività che «violavano i diritti umani» e per «abusi relativi all’implementazione di campagne di repressione, detenzione arbitraria di massa e sorveglianza con sistemi altamente tecnologici» nei confronti degli uiguri e di altre minoranze. Tra queste società c’era anche Megvii. Tra le altre cose, da qualche tempo gli Stati Uniti stanno anche cercando di limitare l’influenza di Huawei in Europa e tra i paesi alleati perché, sostiene l’amministrazione americana, Huawei è vicina al governo cinese e pone un rischio per la sicurezza.