La televisione belga ha ottenuto alcune registrazioni realizzate da dispositivi Google

A volte anche conversazioni private, che Google non dovrebbe registrare e che non dovrebbero finire a un giornale

(Jack Taylor/Getty Images)
(Jack Taylor/Getty Images)

VRT, la televisione pubblica delle Fiandre, la regione fiamminga del Belgio, ha ottenuto e pubblicato alcune registrazioni realizzate da dispositivi Google, in particolare dall’assistente vocale Google Home e dall’app Google Assistant. Si tratta ovviamente di registrazioni che non avrebbero dovuto finire in mano a un giornale e di cui Google aveva quindi perso il controllo. In un post sul proprio blog ufficiale, Google ha riconosciuto che le registrazioni provengono dai propri dispositivi e spiegato che in futuro cercherà di prevenire episodi di questo genere.

Le registrazioni si possono ascoltare nel video che VRT ha pubblicato insieme alla sua inchiesta: alcune contengono semplici comandi rivolti ai dispositivi Google, altre contengono informazioni private anche molto sensibili, come una conversazione avvenuta in una camera da letto, oppure quella di una situazione in cui una donna si trovava in pericolo.

Da qualche tempo sappiamo che migliaia di persone nel mondo sono assunte da Google per migliorare i propri assistenti vocali. Secondo tre fonti anonime raccolte da VRT, per migliorare la ricettività dei suoi assistenti vocali, Google analizza alcune registrazioni realizzate dai propri dispositivi per affinare l’algoritmo con cui funzionano. La possibilità che Google utilizzi ogni conversazione fra l’utente e il dispositivo è citata chiaramente nei termini di utilizzo formulati da Google: il problema è che spesso i vari dispositivi intercettano registrazioni private, non dirette ai dispositivi Google e anche quelle vengono conservate e analizzate.

Le fonti di VRT hanno spiegato che Google subappalta l’analisi a società esterne. Una delle loro fonti, chi si è fatta chiamare Peter, ha raccontato come funziona il suo lavoro: «ogni mese riceviamo varie registrazioni audio. Nel mio caso contengono frasi in olandese registrate in Belgio e nelle Fiandre. Accediamo a una piattaforma da Google dove possiamo ascoltarle. Poi dobbiamo trascriverle nella maniera più accurata possibile». Peter fa parte di una divisione di 12 persone, ma VRT sostiene che in tutto il mondo ci siano migliaia di persone che maneggiano registrazioni del genere, con rischi potenzialmente enormi per la sensibilità dei dati raccolti.

Google ha spiegato che le società a cui affida l’analisi delle registrazioni ottengono solo lo 0,2 per cento di quelle totali, e che a volte i dispositivi registrano accidentalmente conversazioni private perché scambiano alcune parole per i comandi che attivano la registrazione, come “ehi Google” o “ok Google”.

Tre mesi fa era uscita una notizia del genere su Alexa, l’assistente vocale dei dispositivi di Amazon per la casa. Così come per Google, centinaia di persone ascoltano le registrazioni realizzate da Alexa per migliorare il suo algoritmo. Bloomberg ha raccontato che è capitato che queste persone ascoltassero per caso registrazioni di fatti con possibili implicazioni criminali, come quando due impiegati rumeni si trovarono davanti quella che credettero essere un’aggressione sessuale. I due hanno detto di averlo riferito ai loro superiori, per sapere come avrebbero dovuto comportarsi, ma che gli fu risposto che non era compito di Amazon intervenire.

Wired scrive che il comportamento di Google probabilmente viola il GDPR, il regolamento sul trattamento dei dati personali introdotto dall’Unione Europea l’anno scorso, che obbliga le società che maneggiano dati e informazioni sensibili a spiegare esattamente agli utenti come vengono gestiti. «Bisogna essere molto specifici su quali dati tratti e come li tratti», ha spiegato a Wired Michael Veale, un esperto di politiche tecnologiche dell’Alan Turing Institute di Londra. Veale ipotizza che Google non avesse spiegato chiaramente come lavorano le società a cui fa analizzare le registrazioni perché «sarebbe stato inquietante».