Con le fake news non abbiamo ancora visto niente

In futuro sarà sempre più facile creare audio di conversazioni mai avvenute o video di cose mai successe, racconta l'Economist

Negli ultimi anni è diventato sempre più facile spacciare per vere delle notizie inventate. Esistono decine di siti che stanno in piedi attribuendo notizie allarmanti ma false, e che prendono spunto da articoli realmente pubblicati manipolando alcuni dati o informazioni. Chi possiede una minima competenza e il giusto programma di grafica può modificare a proprio piacimento delle vere pagine di giornale, e spacciarle per vere (da poco esistono anche dei siti appositi per farlo). E come ha scritto l’Economist, in futuro sarà sempre più semplice creare delle notizie false modificando dei file audio e video, a cui solitamente attribuiamo un grado di verità maggiore rispetto a un testo o a delle immagini.

È molto più semplice manipolare un file audio rispetto a un video. Per esempio, da anni circolano video-parodia di discorsi o canzoni di personaggi famosi mai pronunciati o cantate, e realizzati mettendo insieme pezzi di diverse registrazioni audio: uno dei più famosi di tutti è quello in cui si sente l’ex presidente americano Barack Obama che canta “Call Me Maybe”. Ciascuna parola della canzone è stata estrapolata da discorsi pronunciati da Obama negli ultimi anni, e incollata in un nuovo file. Anche Siri, l’assistente vocale dei dispositivi Apple, funziona più o meno allo stesso modo: prima di dire qualcosa recupera dal suo archivio pezzi di parole, frasi e intonazioni che poi assembla per creare una nuova frase.

Gli ultimi sviluppi di questo campo però stanno andando in un’altra direzione. Non si assemblano più pezzi di registrazioni vecchie o tracce pre-registrate; oggi esistono intelligenze artificiali che usano gli archivi delle dichiarazioni pubbliche di una persona per ricrearne la voce, e farle dire qualsiasi cosa si voglia. «Per mettere in bocca qualcosa a Donald Trump, per esempio, basterà dare in pasto a un algoritmo le registrazioni dei suoi discorsi, e poi chiedere al software di fargli dire quello che si vuole», sintetizza l’Economist. Nel 2016 solo tre enti hanno pubblicato algoritmi in grado di eseguire questo compito – due istituti di ricerca e la società britannica DeepMind, di proprietà di Google – e per ora solo i computer più potenti hanno la capacità di calcolo necessaria ad eseguirli: «ma le cose cambieranno presto», dice l’Economist, lasciando intuire che questi sistemi potrebbero diventare sempre più leggeri e quindi sempre più diffusi.

Per creare dal nulla o quasi dei video, invece, la questione è più complessa. Fino a poco tempo fa si usavano degli algoritmi che permettevano di identificare e archiviare le immagini presenti in due foto, e quelli che consentivano il riconoscimento facciale. Grazie a un meticoloso studio dei dati relativi alle immagini archiviate, gli algoritmi erano in grado di crearne di nuove, anche se con risultati abbastanza scadenti: produrre un’immagine che l’occhio umano ritenga accettabile e vera è più difficile che ricreare una voce umana.

Nel 2014, l’allora studente del Montreal Institute for Learning Algorithms Ian Goodfellow ideò un sistema per migliorare questo principio: a uno degli algoritmi studiati per creare le immagini, ne affiancò un altro che agisse da giudice sulla “credibilità” delle foto prodotte dal primo, di modo che quello originale fosse stimolato quasi all’infinito a crearne di nuove sempre più verosimili. Questa tecnologia oggi si chiama GAN (Generative adversarial networks, a grandi linee “sistemi di intelligenze creatrici e avversarie”) e Goodfellow l’ha sviluppata per Google Brain, il centro studi interno di Google sull’intelligenza artificiale. Intervistato dall’Economist in occasione di un convegno, Goodfellow ha ipotizzato che entro tre anni potrebbe arrivare una generazione di produttori specializzati nel creare video falsi, sfruttando gli stessi principi della sua scoperta: «L’intelligenza artificiale cambierà le prove a cui siamo abituati a credere», ha raccontato all’Economist.

Un video pubblicato qualche mese fa dall’artista tedesco Mario Klingemann, che ha adattato una serie di vecchi video dell’attrice Françoise Hardy di modo che sembri pronunciare una frase detta da Kellyanne Conway, una delle più strette collaboratrici di Trump

Saranno necessari nuovi modi per distinguere un video e un audio veri da quelli falsi: l’Economist ipotizza che l’analisi dei metadati – cioè le caratteristiche proprie di ciascun file – sarà sempre più importante per capire se un file è stato manipolato o meno, e ricorda che qualcuno si sta già occupando di stabilire la veridicità di documenti audio o video. Il Citizen Evidence Lab di Amnesty International si occupa di verificare la credibilità di foto o video che riguardano violazioni dei diritti umani, mentre il sito di news Bellingcat – fondato da Eliot Higgins, l’analista britannico che un tempo era noto col soprannome di Brown Moses – fa più o meno lo stesso lavoro con video di propaganda o di eventi di guerra.

Mostra commenti ( )