Il riconoscimento facciale deve preoccuparci?

Un gruppo di attivisti ha provato a dimostrare che sì, con una strana protesta a Washington: ma ci sono molti precedenti inquietanti

Un gruppo di attivisti statunitensi ha usato un software per fotografare e riconoscere i volti di circa 14mila persone a Washington, per dimostrare i rischi e i limiti del riconoscimento facciale legati a sicurezza e sorveglianza, e i pericoli di questa tecnologia in mancanza di una legislazione specifica.

Giovedì 14 novembre, tre persone in tuta da lavoro bianca e con uno smartphone sulla fronte hanno camminato per le strade e nelle sale di Capitol Hill, la sede del Congresso degli Stati Uniti, inquadrando le facce delle persone che incrociavano. I loro telefoni erano collegati al software di riconoscimento facciale di Amazon, Rekognition, un sistema molto raffinato e venduto, tra l’altro, a numerose forze di polizia negli Stati Uniti. Il programma impiega algoritmi che migliorano man mano che vengono catalogate e riconosciute sempre più facce, e di recente Amazon ha annunciato di avere ulteriormente migliorato il sistema, aggiungendo una funzione per rilevare lo stato d’animo delle persone. In poche ore, i tre attivisti hanno raccolto migliaia di volti e li hanno confrontati con un database che ne consente l’identificazione, che in alcuni casi è riuscito a identificare le persone inquadrate immediatamente. Tutto il processo è stato trasmesso in streaming.

Nella loro azione gli attivisti, che fanno parte dell’organizzazione per i diritti online Fight for the Future, hanno detto di aver identificato un membro del Congresso, sette giornalisti, 25 lobbisti di Amazon e persino una celebrità, il cantante Roy Orbison, morto nel 1988, evidenziando così uno dei principali problemi del riconoscimento facciale: in molti casi, la tecnologia sbaglia. I residenti di Washington potranno anche caricare le loro foto sul sito legato all’organizzazione per vedere se sono stati riconosciuti durante l’azione.

Sebbene sulle tute degli attivisti si trovasse l’avviso “Riconoscimento facciale in corso”, non chiedevano il consenso alle persone e i loro telefoni riconoscevano automaticamente chiunque passasse. La legalità della loro operazione è il problema principale: al momento, non esiste una legge che impedisca alle persone di immagazzinare dati di riconoscimento facciale senza il consenso di chi viene ripreso. L’organizzazione ha fatto sapere che tutti i dati raccolti verranno eliminati dopo due settimane, «ma non esiste una legge al riguardo. Al momento, i dati sensibili sul riconoscimento facciale possono essere archiviati per sempre».

In un comunicato stampa, il gruppo ha fatto sapere che il loro messaggio al Congresso è semplice: «Rendere illegale ciò che abbiamo fatto oggi». «È terrificante quanto sia facile per chiunque, un governo, un’azienda o semplicemente uno stalker, impostare un monitoraggio biometrico su larga scala», ha detto Evan Greer, vicedirettore di Fight for the Future. «Abbiamo bisogno di un divieto immediato per l’uso della sorveglianza facciale da parte delle forze dell’ordine e del governo, e dovremmo limitarne urgentemente e severamente l’uso anche a fini privati ​​e commerciali». La loro azione faceva parte della campagna BanFacialRecognition.com, che è stata sottoscritta da oltre trenta importanti organizzazioni per i diritti civili tra cui Greenpeace, MoveOn e Free Press.

Diverse città degli Stati Uniti hanno già vietato apertamente la tecnologia del riconoscimento facciale, tra cui San Francisco, Somerville (Massachusetts), Berkeley e Oakland (California) e la questione è entrata anche nella campagna elettorale per le presidenziali quando, lo scorso agosto, Bernie Sanders ha chiesto un divieto totale dell’uso del software per il riconoscimento facciale per le attività di polizia. Elizabeth Warren, Kamala Harris e Julián Castro – altri candidati alle primarie del Partito Democratico – hanno affermato di volerlo regolamentare.

Rekogniton e altri sistemi simili hanno già creato una serie di controversie negli Stati Uniti. I dipendenti di Amazon hanno protestato contro la vendita della tecnologia alle autorità e sono stati segnalati errori frequenti di identificazione, in particolare per quanto riguarda il riconoscimento di volti di persone di alcune etnie. Ci sono studi che hanno rilevato che il riconoscimento nei principali software ha una percentuale di errore dell’1 per cento quando analizza uomini con la carnagione chiara, e fino al 35 per cento nei casi di donne nere. Questo perché a livello mondiale le intelligenze artificiali alla base dei sistemi di riconoscimento artificiale sono state sviluppate principalmente con i dati di uomini bianchi o asiatici. Secondo il New York Times, uno dei principali database usati dai sistemi di riconoscimento facciale contiene oltre il 75 per cento di volti di uomini e oltre l’80 per cento di volti bianchi.

Questa asimmetria ha già causato degli incidenti notevoli per le società che operano nel settore: nel 2015, Google si dovette scusare pubblicamente dopo che la sua app Google Foto riconobbe dei gorilla nelle foto di alcune persone nere. La principale preoccupazione ha naturalmente a che fare con gli scambi di persona e con il fatto che la tecnologia potrebbe aumentare la discriminazione nei confronti di alcuni gruppi.

I sostenitori dell’uso di questi sistemi anche da parte della polizia dicono che potrebbero esserci diversi vantaggi nelle indagini e per la ricerca delle persone scomparse, ma gli argomenti contrari sono più numerosi e solidi. Woodrow Hartzog ed Evan Selinger, rispettivamente professore di legge e docente di filosofia, in un articolo del 2018 hanno sostenuto che la tecnologia del riconoscimento facciale è intrinsecamente dannosa per il tessuto sociale: «La semplice esistenza di sistemi di riconoscimento facciale, che sono spesso invisibili, danneggia le libertà civili, perché le persone agiranno in modo diverso se sospettano di essere sorvegliate».

Luke Stark, uno studioso di media digitali che lavora per Microsoft Research Montreal, ha portato anche un altro argomento a favore del divieto. Ha paragonato i software per il riconoscimento facciale al plutonio, l’elemento radioattivo usato nei reattori nucleari: per Stark come la radioattività del plutonio deriva dalla sua struttura chimica, il pericolo del riconoscimento facciale è intrinsecamente e strutturalmente incorporato all’interno della tecnologia stessa perché attribuisce valori numerici al volto umano. «Le tecnologie di riconoscimento facciale e altri sistemi per classificare visivamente i corpi umani attraverso dei dati sono inevitabilmente e sempre mezzi attraverso i quali la “razza”, come categoria costruita, viene definita e resa visibile. Ridurre gli umani in insiemi di segni leggibili e manipolabili è stato uno degli elementi distintivi delle scienze razziali e delle tecnologie amministrative risalenti a diverse centinaia di anni fa». Il semplice fatto di classificare e ridurre numericamente le caratteristiche del volto umano, secondo Stark, è dunque pericoloso, perché consente a governi e aziende di dividere le persone in diverse razze, di costruire gruppi subordinati, e poi di reificare quella subordinazione facendo riferimento a qualcosa di “oggettivo”: rivendicando infine la subordinazione «come un fatto naturale».

La Cina sta già utilizzando il riconoscimento facciale con questo obiettivo nello Xinjiang, una regione autonoma del nord-ovest del paese abitata soprattutto dagli uiguri, minoranza etnica musulmana accusata dal governo cinese di separatismo e terrorismo i cui membri vengono sistematicamente perseguitati e rinchiusi in campi di “rieducazione”. Il sistema è stato definito dal New York Times “razzismo automatizzato”. Invece di partire dal presupposto che il riconoscimento facciale è ammissibile, dice un articolo di Vox sul tema, «faremmo meglio a partire dal presupposto che è vietato, per poi isolare rare eccezioni per casi specifici in cui potrebbe avere delle giustificazioni».