• Mondo
  • Sabato 9 dicembre 2023

Cosa c’è nell’AI Act, la prima legge al mondo per regolamentare l’intelligenza artificiale

Deve ancora essere approvata dagli organi europei: vieterà di fare ricorso ai sistemi di riconoscimento facciale salvo reati molto gravi

riconoscimento facciale
(AP Photo/Seth Wenig)
Caricamento player

Il Parlamento e il Consiglio dell’Unione Europea hanno trovato un accordo per approvare l’AI Act, la prima legge al mondo per regolamentare lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale. L’obiettivo della legge è indicarne gli usi consentiti e quelli proibiti per tutelare la privacy e gli altri diritti dei cittadini europei.

Dopo aver trovato l’accordo politico, il testo sarà affinato dai tecnici chiamati a scrivere la versione definitiva della legge, che dovrà poi essere approvata sempre dal Parlamento e dal Consiglio dell’Unione Europea.

La proposta era stata presentata dalla Commissione europea nel 2021, ma ha richiesto molto tempo soprattutto per via del notevole sviluppo tecnologico portato avanti da diverse aziende negli ultimi due anni: le novità hanno costretto l’Unione Europea a tenere conto di possibili nuovi problemi in un settore in piena espansione e dai contorni ancora sfumati. Anche il negoziato è stato lungo: i parlamentari europei hanno trattato per tre giorni per raggiungere un accordo definito storico dal commissario al Mercato interno, Thierry Breton.

L’iniziativa della Commissione copre diversi ambiti e applicazioni della AI, dai sistemi per le nuove assunzioni di personale nelle aziende, agli algoritmi che fanno funzionare le automobili a guida autonoma, passando per il riconoscimento facciale da parte delle forze dell’ordine e la diffusione della disinformazione online.

Uno dei temi centrali, e già ampiamente discussi prima che la proposta fosse presentata ufficialmente, è legato ai sistemi per riconoscere automaticamente gli individui nelle riprese delle telecamere di sicurezza. Durante i negoziati si è discusso a lungo di come le forze dell’ordine dovrebbero gestire questi sistemi nel rispetto della privacy delle persone per evitare il rischio di schedature di massa. Diversi paesi erano a favore di misure molto restrittive, mentre Italia, Ungheria e Francia hanno sostenuto una posizione più permissiva. Il riconoscimento facciale è stato vietato, ad eccezione di tre casi: l’evidente minaccia di un attacco terroristico, la ricerca di vittime, le indagini che riguardano reati gravi come omicidi, sequestri, violenza sessuale.

– Leggi anche: I sistemi di riconoscimento facciale stanno arrivando nelle città italiane

Il regolamento prevede altri divieti nell’uso delle AI, per esempio non sarà consentito utilizzare tecnologie per calcolare il «punteggio sociale» di ogni individuo, una pratica sempre più sperimentata in Cina dove a ogni cittadino vengono assegnati punti in base ai comportamenti, cosa che dà la possibilità di accedere a particolari servizi preclusi invece a chi ha punteggi bassi.

Sono stati vietati sistemi di riconoscimento biometrico che utilizzano dati sensibili, come le idee politiche, la religione e l’orientamento sessuale. Non possono essere utilizzate immagini ricavate da internet per creare database di riconoscimento facciale. È stato vietato il riconoscimento delle emozioni sul posto di lavoro e nelle scuole. Sarà inoltre vietato sviluppare algoritmi che possano causare danni fisici o psicologici agli individui, o con la capacità di manipolarne i comportamenti anche in forma subliminale.

Un altro punto importante della legge si occupa dei sistemi tecnologici su cui sono basati servizi di chatbot come ChatGPT. Sono stati previsti due livelli di regole distinguendo tra AI ad alto impatto da tutti gli altri sistemi di intelligenza artificiale.

Per AI ad alto impatto si intendono i sistemi con una notevole potenza di calcolo: secondo le prime informazioni, al momento soltanto GPT-4 di OpenAI rientrerebbe in questa categoria. I sistemi di AI ad alto impatto devono rispettare regole relative alla trasparenza dei processi di addestramento dell’intelligenza artificiale e alla condivisione della documentazione tecnica prima di essere messi sul mercato. Tutti gli altri sistemi devono rispettare queste regole soltanto dal momento in cui i servizi vengono commercializzati.

Inizialmente questa distinzione era basata sul fatturato delle aziende, ma alla fine è stato scelto di prediligere la potenza di calcolo, quindi l’impatto sulla popolazione e il possibile sviluppo.

– Leggi anche: I cinque giorni matti di OpenAI