I “deepfake” possono essere etici?

I video che simulano digitalmente i volti delle persone si portano dietro vari problemi, legati al consenso e agli effetti ingannevoli, ma sembrano destinati ad aumentare

deepfake
(AP Photo)
Caricamento player

Nel 2017 cominciò a circolare sul social network Reddit una serie di video pornografici ritoccati, che mostravano scene di sesso in cui, al posto dei volti delle attrici originali, comparivano quelli di alcune famose attrici di Hollywood. A pubblicarli era un utente anonimo che si faceva chiamare u/deepfakes, un nickname frutto della crasi tra le parole deep learning – la tecnologia alla base dei filmati – e fake, ovvero “finto” in inglese. Lo scandalo suscitato dai suoi post bastò a fare del suo nome utente il termine con cui si indica ancora oggi questo tipo di immagini contraffatte usando le intelligenze artificiali.

I deepfake rappresentano una sofisticata forma di “media sintetico”, espressione con cui si definisce una varietà di contenuti prodotti e manipolati allo scopo di fuorviare le persone o cambiare il significato del media originale. L’origine dei deepfake è quindi perlopiù di natura non consensuale (e potenzialmente illegale), perché la maggioranza delle persone coinvolte in questi casi non approvava l’utilizzo del proprio volto nella creazione di contenuti simili.

Oltre che per la realizzazione di finti filmati pornografici, con risultati potenzialmente assimilabili a quelli del revenge porn, cioè la diffusione non consensuale di foto e video privati, per un po’ si ritenne che l’uso dei deepfake più preoccupante fosse quello in campo politico. È infatti una tecnologia che permette di creare facilmente filmati compromettenti molto credibili. Secondo una ricerca realizzata da ricercatori di Harvard, Penn State e Washington University (pdf), i deepfake di questo tipo sarebbero in grado di convincere quasi la metà dei partecipanti a un esperimento, convinti di vedere un filmato originale.

Nel 2018, per dimostrare il potenziale propagandistico dei deepfake, il comico e regista americano Jordan Peele, autore di film come Get Out e Nope, collaborò con BuzzFeed nella produzione di un breve deepfake con protagonista l’ex presidente statunitense Barack Obama, che doppiò. Negli anni precedenti, infatti, Peele aveva realizzato diversi sketch in cui impersonava Obama per la serie comica Key & Peele. Il risultato spinse Twitter e altri social network a introdurre l’obbligo per gli utenti di segnalare qualsiasi tipo di media sintetico pubblicato.

Da allora le tecnologie necessarie alla produzione di deepfake si sono sviluppate diventando sempre più accessibili e aprendo la strada anche a iniziative di stampo diverso, senza fine politico o truffaldino. Dal 2017, questo tipo di contenuto si è diffuso globalmente, trovando applicazioni anche nell’industria cinematografica: la saga di Star Wars li ha usati più di una volta – sia nel film Rogue One che nella serie The Mandalorian – per portare sullo schermo personaggi interpretati da attori che erano morti.

Un altro esempio è deeptomcruise, un profilo TikTok di video che pubblica video in cui compare una versione deepfake molto realistica di Tom Cruise, interpretata da un attore che anche senza tecnologia gli assomiglia molto, e che ha studiato per diventarne un sosia. L’account ha avuto grande successo, accumulando 3,6 milioni di follower che sembrano consci di non seguire il vero attore. Per questo, secondo il sito Quartz, @deeptomcruise rappresenterebbe una versione «etica» dei deepfake, la cui funzione in questo caso è divertire o dimostrare le capacità tecnologiche degli algoritmi utilizzati.

– Leggi anche: Il finto Tom Cruise di TikTok

A sviluppare deeptomcruise è stata Metaphysic, azienda co-fondata dagli esperti di machine learning Tom Graham e Chris Ume. La startup ha recentemente ricevuto 7,5 milioni di dollari di finanziamenti da vari investitori, tra cui lo youtuber Logan Paul e i gemelli Winklevoss (noti per la lunga diatriba legale con Mark Zuckerberg per l’idea originaria di Facebook). Graham ha spiegato che le nuove risorse serviranno a costruire una nuova infrastruttura per il metaverso, per creare esperienze e contenuti virtuali iperrealistici.

In un’intervista a Quartz, i due fondatori hanno ammesso che «molte persone si sono fatte un’idea negativa del termine deepfake, che rappresenta in realtà una parte molto piccola dei media sintetici», una categoria di cui fanno parte anche i filtri di Instagram e Snapchat, o in generale qualsiasi programma informatico di grado di modificare dinamicamente il volto di una persona.

Metaphysic concorda col fatto che a fare la differenza sia il consenso. È da qui che sono partiti per delineare una sorta di guida al deepfake etico, in cui agenzie come la loro lavorano solo a prodotti commerciali che prevedono il consenso della persona «la cui identità sintetica viene riprodotta». Per quanto riguarda deeptomcruise, Graham e Ume raccontano di averlo creato come un progetto artistico collaborativo, tentando spesso di contattare i legali di Cruise, che però «non avevano alcun commento da fare». I due hanno anche proposto all’attore la proprietà del progetto, ma non è sembrato interessato.

La startup nasce soprattutto per collaborare con la nascente industria del metaverso e della realtà aumentata, permettendo la creazione di avatar digitali (cioè gli alter ego con cui ci si muove nel metaverso) realistici e dinamici. Ma per loro il metaverso non è necessariamente l’ambizioso – e discusso – progetto di Meta: secondo Metaphysic anche TikTok può «creare dei minuscoli metaversi», come quello di deeptomcruise, che i due vedono come «un universo parallelo che mostra come sarebbe Tom Cruise se avesse circa trent’anni, fosse su TikTok e lo usasse per creare contenuti irriverenti».

Secondo la filosofa Adrienne de Ruiter, i deepfake dovrebbero essere considerati «moralmente sospetti ma non intrinsecamente sbagliati». Servono però nuove regole per tutelare la rappresentazione di sé nella società, con norme che proteggano dalla manipolazione delle rappresentazioni digitali delle nostre facce (e delle nostre voci). Ciò vale soprattutto per l’industria cinematografica, che ha sperimentato la tecnologia con ottimi risultati, spingendo attori e attrici a concentrarsi sulla protezione legale del loro aspetto fisico anche dopo la loro morte.

Pochi mesi fa l’attore Bruce Willis è comparso sotto forma di deepfake in una pubblicità per la compagnia telefonica russa Megafon. L’azienda che ha realizzato lo spot, chiamata Deepcake, aveva dichiarato di possedere i diritti digitali delle fattezze di Willis, fatto subito smentito dal suo agente. A quanto pare l’attore, che lo scorso marzo ha annunciato il ritiro dalle scene a causa della sua afasia, avrebbe concesso all’azienda l’uso del suo volto per un singolo spot.

I deepfake rischiano di colpire più severamente gli attori e le attrici a inizio carriera, rispetto alle grandi star. L’esperta di proprietà intellettuale Johanna Gibson ha spiegato a Wired che «il vero rischio è che i nuovi attori siano particolarmente vulnerabili, e vendano i diritti della propria persona come condizione per avere il loro primo contratto». Secondo una fonte citata dalla rivista, nel settore dello spettacolo si vedono sempre più contratti che includono «diritti di simulazione» legati all’immagine, alla voce e alle performance degli artisti. Questi termini sono «sepolti in profondità» sotto una coltre di linguaggio legale e burocratico spesso incomprensibile ai più, che potrebbe permettere la creazione – legale – di deepfake.