Facebook ha manipolato le nostre emozioni?

Il flusso di notizie di 700mila utenti è stato modificato e reso più "positivo" o "negativo" per un esperimento scientifico (che ha sollevato qualche dubbio etico)

di Katy Waldman – Slate @xwaldie

(Jochen Eckel/picture-alliance/dpa/AP Images)
(Jochen Eckel/picture-alliance/dpa/AP Images)

Facebook sta sperimentando cose su di noi. Un nuovo studio della Proceedings of the Natural Academy of Sciences (PNAS), una rivista scientifica americana, ha rivelato che Facebook ha intenzionalmente manipolato il flusso di notizie di quasi 700mila utenti per studiarne “il contagio emotivo attraverso i social network”.

I ricercatori, che fanno parte rispettivamente di Facebook, della Cornell University e della University of California-San Francisco, hanno compiuto dei test per capire se riducendo il numero di aggiornamenti “positivi” nel flusso le persone che li avessero visti avrebbero ridotto la loro produzione di contenuti positivi. Stessa cosa per quelli negativi: è possibile che nascondendo post che contengono parole tristi o arrabbiate si spingano gli utenti a scrivere aggiornamenti meno pessimisti?

Per ottenere questo risultato gli studiosi hanno modificato l’algoritmo con il quale Facebook seleziona i post in modo che i post con parole positive o negative venissero identificati e classificiati. Ad alcune persone erano forniti aggiornamenti dal neutrale al positivo, mentre ad altre dal neutrale al negativo. Quindi, i successivi post di queste persone venivano studiati per valutarne il significato comportamentale.

Il risultato dell’esperimento? È un “sì” alla domanda di poco sopra: i social network hanno la capacità di diffondere sentimenti negativi e positivi. Un altro risultato: Facebook ha intenzionalmente reso tristi migliaia e migliaia di persone.

La metodologia di Facebook solleva diverse questioni di natura etica. Il gruppo di ricercatori potrebbe aver agito al di là degli standard della ricerca, oltrepassando dei limiti stabiliti dalla legge federale e dai trattati sui diritti umani. James Grimmelmann, un professore di diritto della tecnologia alla University of Maryland, ha detto che «se esponi la gente a una cosa che modifica il loro status psicologico, stai facendo della sperimentazione: è il genere di cose che richiede un consenso informato».

Ah, il consenso informato. Ecco l’unica menzione del “consenso informato” presente nello studio: la ricerca «ha agito nei limiti stabiliti dalla Facebook Data Use Policy, alla quale tutti gli utenti si dichiarano d’accordo prima che venga loro creato un account in Facebook, costituendo di fatto un consenso informato per questa ricerca».

Non è affatto ciò che la maggior parte dei sociologi definirebbe “consenso informato”.

Questa è la sezione in questione della Facebook Data Use Policy: «Ad esempio, oltre ad aiutare le persone a vedere e a trovare le cose che fai e condividi, potremmo usare le informazioni che riceviamo su di te per le operazioni interne, fra cui la risoluzione dei problemi, l’analisi dei dati, i test, la ricerca e il miglioramento del servizio».

Quindi, esiste una vaga menzione di possibili “ricerche” nel breve elenco di cose a cui uno dà il proprio consenso quando si iscrive a Facebook. Come l’esperto di bioetica Arhtur Caplan mi ha detto, comunque, vale la pena chiedersi se questo cavillo da avvocati sia davvero sufficiente per avvisare la gente che «i loro account di Facebook posso essere utilizzati da ogni sociologo sul pianeta».

Ogni ricerca scientifica che riceve del denaro federale deve seguire la “Norma comune sui soggetti umani”, che definisce il consenso informato una cosa che comprende, fra le altre, «una descrizione di rischio prevedibile o di disagi per il soggetto». Come osserva Grimmelmann, nulla nel documento di Facebook lascia pensare che l’azienda si riservi la possibilità di intristirti togliendo tutto ciò che è positivo e allegro dal tuo flusso di notizie. La manipolazione dei sentimenti è una cosa seria, e i vincoli per approvare una sperimentazione di questo tipo sono piuttosto esigenti. (la psicologa di Princeton Susan K. Fiske, che ha curato la storia per PNAS, ha detto all’Atlantic che l’esperimento è stato approvato dalle commissioni di controllo degli istituti dei ricercatori coinvolti. Ma anche lei ha ammesso di avere qualche scrupolo sulla ricerca).

Facebook, probabilmente, non ha ricevuto nessun fondo federale per questa ricerca, che quindi può non ricadere sotto la “Norma comune”. Lasciando perdere il fatto che seguire queste norme è una pratica comune anche per istituti di ricerca privati come Gallup e il Pew, la domanda allora diventa: la Cornell o la University of California-San Francisco hanno finanziato questi studi? In quanto istituzioni pubbliche, entrambe devono sottostare alla legge. Se non l’hanno finanziata ma i loro ricercatori vi hanno partecipato lo stesso, non è chiaro a quali standard debba sottostare la ricerca, dice Caplan. (Ho contattato anche gli autori dello studio, le loro università e Facebook: aggiornerò questo pezzo il prima possibile).

Anche se la ricerca in questione fosse legale, sembra non adeguarsi agli standard richiesti a chi spera di pubblicare su PNAS. Uno dei requisiti per farlo, si legge sul loro sito, è che «gli autori debbano includere nella sezione riservata ai metodi utilizzati una breve dichiarazione in cui indicano “l’istituzione e/o il comitato di controllo che ha approvato l’esperimento” (la ricerca in questione non la contiene). Un altro requisito indica che “tutti gli esperimenti devo essere stati condotti secondo i principi espressi dalla Dichiarazione di Helsinki“. Questa stessa impone che i soggetti umani “siano adeguatamente informati di fini, metodi, fonti di finanziamento e possibili conflitti di interesse e affiliazioni istituzionali del ricercatore, nonché dei benefici e dei rischi potenziali che ogni studio può comportare e dei disagi implicati”.

Nel corso della ricerca, sembra che il social network ci abbia reso più felici o più tristi di quanto saremmo altrimenti stati. Ora, ci ha resi tutti più inclini a non dargli fiducia.

©Slate

___

Aggiornamento: In seguito alle contestazioni causate dalla diffusione della notizia dell’esperimento sociale condotto su Facebook, uno degli autori dello studio – Adam D. I. Kramer – ha esposto proprio attraverso il suo account Facebook alcune informazioni aggiuntive riguardo lo studio, tentando di ridimensionare le preoccupazioni di una parte della comunità. “Il motivo per cui abbiamo fatto questa ricerca”, ha scritto Kramer, “è perché ci interessa l’impatto emotivo di Facebook” e perché “eravamo preoccupati che l’esposizione alla negatività degli amici potesse indurre le persone a non visitare Facebook”. Kramer ha anche riconosciuto che le motivazioni della ricerca non erano chiaramente esposte nello studio, e ha comunque specificato che l’esperimento ha riguardato soltanto una piccola percentuale dei contenuti del newsfeed di poche persone, per poco tempo: lo 0,04% degli utenti, per una settimana, nel 2012. Nessun aggiornamento degli amici è stato tecnicamente “nascosto”: continuava a essere visibile sul loro diario, e poteva in ogni caso comparire nel caso in cui l’utente avesse ricaricato il newsfeed.