I finti video porno delle celebrità fatti con l’intelligenza artificiale

I sistemi per scambiare le facce nei video con quelle di altre persone stanno diventando sempre più semplici da usare, e i risultati sono sempre più realistici e inquietanti

Un’applicazione per sostituire digitalmente la faccia di una persona in un video con quella di un’altra sta riscuotendo molto successo su Reddit, soprattutto da quando gli utenti hanno iniziato a sfruttarla per realizzare finti video pornografici, utilizzando le facce di attrici famose e altre personalità dello spettacolo. Il canale di Reddit (subreddit) “Deepfakes” conta ormai quasi 30mila iscritti, che condividono le loro creazioni e si danno consigli per migliorare il sistema per realizzare i loro video e renderli più realistici. Le iscrizioni sono raddoppiate in un paio di giorni e la popolarità dell’applicazione pone numerosi interrogativi, soprattutto sulla possibilità di realizzare video realistici completamente falsi, che potrebbero mettere in difficoltà personaggi famosi (soprattutto tra le donne famose, che subiscono la ricorrente diffusione illecita di loro video e foto private) o essere utilizzati per altri scopi, anche legati alla criminalità.

Alla fine dello scorso anno, l’utente “deepfakes” di Reddit finì al centro del dibattito sui video fasulli realizzati con l’intelligenza artificiale. Aveva messo a disposizione di tutti algoritmi e codici per cambiare le facce nei video, usandone altre ottenute dall’analisi di varie fotografie di un soggetto. Il sistema funziona più o meno come il famoso filtro di Snapchat per invertire due facce riprese dalla telecamera del proprio smartphone, ma è meno rudimentale e soprattutto permette di farlo con video già registrati. È sufficiente una raccolta di fotografie della faccia che si vuole inserire, con varie espressioni da fare analizzare all’intelligenza artificiale, in modo che impari a ricreare un viso realistico da sostituire a quello esistente. In molti casi, la stessa intelligenza artificiale migliora col tempo, rendendo gli effetti sempre più realistici e difficili da scoprire.

Lo strumento messo a disposizione da deepfakes lo scorso anno richiedeva buone conoscenze informatiche per essere utilizzato, ma la diffusione di una nuova applicazione più semplice da usare ha cambiato le cose nelle ultime settimane, facendo aumentare notevolmente il numero di persone che sperimentano la sostituzione delle facce nei video, soprattutto per creare falsi pornografici.

Tentativi e consigli su come fare meglio vengono condivisi nel subreddit Deepfakes (se siete in ufficio non cliccateci adesso), che porta lo stesso nome dell’utente che aveva diffuso parte degli strumenti. La stessa parola viene ormai usata per definire un video falso creato con questo sistema: “deep” fa riferimento al deep learning, una delle procedure di apprendimento delle intelligenze artificiali, mentre “fakes” vuol dire semplicemente “falsi”. L’applicazione è stata chiamata FakeApp e semplifica diversi passaggi, riducendo il numero di programmi da installare sul proprio computer. Nel subreddit è stato pubblicato anche un tutorial molto dettagliato. Il suo autore, “deepfakeapp”, ha spiegato a Motherboard di volere semplificare ulteriormente lo strumento: “Penso che l’attuale versione dell’applicazione sia un buon punto di partenza, ma spero di migliorare ancora nelle prossime settimane. Voglio portarla al punto in cui gli utenti possano semplicemente scegliere un video sul loro computer, scaricare una rete neurale collegata a una determinata faccia da un archivio aperto a tutti, in modo da invertire le facce premendo un solo tasto”.

FakeApp ha contribuito a fare aumentare la condivisione di video fasulli, quasi tutti di natura pornografica, su Reddit. Tra i video falsi più popolari ce ne sono uno che usa la faccia dell’attrice Cara Delevingne e un altro con il viso della cantante Katy Perry. Le loro facce sono state sovrapposte a quelle di due attrici che si masturbano davanti alla telecamera. Il risultato è molto realistico e nei commenti si trovano consigli e suggerimenti per migliorare ulteriormente l’effetto. Un altro esperimento, non legato al porno, mostra uno spezzone tratto da Saturday Night Live nel quale la vera faccia di Nicolas Cage è stata sovrapposta a quella di un imitatore, che aveva realizzato con lui uno sketch nello stesso studio.

La sostituzione delle facce non è stata usata naturalmente solo per scopi amatoriali o per divertirsi su Snapchat. L’idea è stata sfruttata da tempo dall’industria del cinema, per esempio per riportare sullo schermo attori morti o per mostrarli da giovani in particolari ricostruzioni. La scena più famosa prodotta finora è probabilmente quella finale di Rogue One nella quale compare una giovane principessa Leia. Per realizzarla, Disney utilizzò vecchie scene di Star Wars, sostituendo la faccia di un’attrice con quella di Carrie Fisher, che interpretava Leia nei vecchi film della saga. L’effetto era risultato abbastanza realistico, ma aveva comunque suscitato critiche, in parte per la sua resa tecnica. Un utente ha provato a usare algoritmi come quelli di FakeApp per riprodurre quella scena da zero e, sicuramente con un budget inferiore rispetto a quello degli effetti speciali per Rogue One, ha ottenuto un risultato simile se non addirittura migliore.

Nell’animazione qui sotto, la scena in alto è l’originale del film, quella in basso l’elaborazione amatoriale.

La storia di FakeApp e di sistemi simili si inserisce nell’ampio dibattito sulla crescente quantità di strumenti che permettono di creare fotografie, video e altri documenti falsi, ma estremamente realistici e difficili da scoprire. Mentre fino a qualche anno fa creare video e foto fasulle richiedeva notevoli competenze informatiche e grafiche, ora risultati analoghi e spesso migliori possono essere raggiunti con sistemi automatici, che non richiedono particolari conoscenze.