In India le piattaforme social dovranno rimuovere i contenuti illegali entro 3 ore dalla segnalazione

(AP Photo/Jeff Chiu, File)
(AP Photo/Jeff Chiu, File)

A partire dal 20 febbraio l’India obbligherà le piattaforme social a dotarsi di nuovi strumenti per contrastare la diffusione di contenuti illegali e per identificare quelli generati con l’intelligenza artificiale.

Le nuove regole riducono a 3 ore il termine massimo concesso alle aziende per rimuovere i contenuti illegali dopo una segnalazione: questi includono video, immagini e documenti autentici ma la cui diffusione non è consentita (per esempio perché non consensuale), e quelli generati con l’intelligenza artificiale che mostrano contenuti illegali. Prima il termine era di 36: secondo esperti e critici degli emendamenti è probabile che una riduzione così sostanziale del termine porti le aziende ad automatizzare il processo ulteriormente, causando errori o censure.

Le nuove norme inoltre obbligano le piattaforme a contrassegnare con un’etichetta permanente video e immagini generati con l’AI, per distinguerli da quelli autentici e renderne tracciabile la provenienza. Riguarderanno tra gli altri anche le principali piattaforme social, tra cui Facebook, Instagram e YouTube.