facebook
Mark Zuckerberg, CEO di Facebook, durante un'audizione al Congresso degli Stati Uniti, Washington DC, il 10 aprile 2018 (Somodevilla/Getty Images)

Il discusso libro sulle “brutte verità” di Facebook

Due giornaliste del New York Times hanno ricostruito le vulnerabilità, gli interessi e i dissidi interni al social network

facebook
Mark Zuckerberg, CEO di Facebook, durante un'audizione al Congresso degli Stati Uniti, Washington DC, il 10 aprile 2018 (Somodevilla/Getty Images)
Caricamento player

Un libro scritto da due apprezzate giornaliste del New York Times, Sheera Frenkel e Cecilia Kang, uscito negli Stati Uniti il 13 luglio, è da alcuni giorni oggetto di estese attenzioni tra analisti e commentatori interessati all’ampio dibattito sui sociali network. Intitolato An Ugly Truth: Inside Facebook’s Battle For Domination, tratta delle responsabilità di Facebook nella diffusione di comportamenti legati alla disinformazione, all’incitamento all’odio, alle teorie del complotto e alla violenza. Le responsabilità sono principalmente definite in termini di interessi economici nella monetizzazione di contenuti divisivi e infondati, e in termini di mancata attivazione di tempestivi e appropriati protocolli di protezione, nonostante la consapevolezza delle infiltrazioni russe e di altri fenomeni relativi alla sicurezza nazionale all’interno dell’azienda.

Il libro di Frenkel e Kang – che uscirà in Italia a settembre, per Einaudi – si sofferma inoltre sui dissidi interni tra reparti e figure centrali all’interno di Facebook, incluso il rapporto problematico tra il CEO e cofondatore Mark Zuckerberg e l’influente direttrice operativa Sheryl Sandberg. Per scriverlo, Frenkel e Kang – che al New York Times si occupano regolarmente di sicurezza informatica e aspetti normativi di Internet – hanno raccolto più di 1.000 ore di interviste a oltre 400 dipendenti ed ex dipendenti di Facebook di ogni livello, consulenti esterni, avvocati e altri professionisti vicini all’azienda. Molte tra le persone intervistate hanno inoltre fornito promemoria interni, email e altri documenti consultati dalle autrici del libro.

In precedenza, Frenkel aveva lavorato per dieci anni come corrispondente dal Medio Oriente. Kang, passata al New York Times nel 2015 dopo dieci anni al Washington Post, aveva peraltro collaborato in passato a un articolo sui rapporti tra la NSA e le grandi aziende di Internet, premiato con il Pulitzer nel 2014.

La disinformazione su Facebook
An Ugly Truth si concentra su quanto accaduto all’interno di Facebook tra la campagna presidenziale del 2016 e l’assalto al Congresso del 6 gennaio scorso, un periodo di tempo in cui l’ex presidente Donald Trump ha di molto incrementato la sua popolarità e influenza sulla piattaforma, contribuendo anche alla diffusione di informazioni false o fuorvianti. Il titolo del libro è tratto da un promemoria interno intitolato The Ugly (“il brutto”) e inviato nel giugno 2016 da Andrew Bosworth, un dirigente di Facebook descritto come uno tra i più stretti collaboratori e confidenti di Zuckerberg.

All’epoca, una squadra di tecnici e sviluppatori di Facebook era impegnata nella raccolta dei dati provenienti dall’analisi dei news feed, lo strumento che aveva permesso a Facebook di incrementare notevolmente i guadagni dando priorità al coinvolgimento degli utenti (engagement) e al raggruppamento di persone con idee simili. «Giovani intraprendenti si resero conto di poter fare soldi dando agli americani il tipo di contenuti che desideravano», scrivono Frenkel e Kang. «Improvvisamente, storie che davano Hillary Clinton segretamente in coma, o che asserivano l’esistenza di un figlio di Bill Clinton nato da una relazione extraconiugale, si diffusero su Facebook. Le persone che ci stavano dietro erano in gran parte apolitiche, ma sapevano che più stravagante era la storia, più era probabile che un utente facesse clic sul collegamento».

I tecnici segnalarono il problema ai superiori, raccontano Frenkel e Kang, ma fu detto loro che le notizie false non violavano le regole di Facebook. «Vedevamo tutti questi siti spazzatura occupare un posto di rilievo nel feed delle persone, sapevamo che le persone aprivano Facebook e vedevano notizie totalmente false nella parte superiore della loro homepage, ma [i superiori] continuavano a ripeterci che non c’era nulla che potessimo fare: le persone potevano condividere tutto ciò che volevano condividere», scrivono Frenkel e Kang citando un ex dipendente.

Un aggiornamento dell’algoritmo di Facebook, pensato per cercare di risolvere il problema, ebbe altre conseguenze indesiderate. La modifica diede priorità ai contenuti di familiari e amici, a scapito dei siti inaffidabili, ma analisi condotte da ricercatori esterni portarono alla conclusione che anche siti accreditati come quelli di CNN e Washington Post erano stati penalizzati. Gli utenti smisero di vedere quelle news e continuarono a vedere contenuti falsi e ultradivisivi condivisi da familiari e amici. A fronte delle crescenti preoccupazioni dei dipendenti, Bosworth, il dirigente in confidenza con Zuckerberg, diffuse la nota interna da cui è tratto il titolo del libro di Frenkel e Kang.

Noi mettiamo in connessione le persone. Punto. È la ragione per cui tutto il lavoro che facciamo per la crescita è giustificato. Tutte le discutibili pratiche di importazione dei contatti. Tutto il linguaggio subdolo che aiuta le persone a essere rintracciate dagli amici. Tutto il lavoro che facciamo per portare più comunicazione. […] Così colleghiamo le persone. Questo può essere negativo se lo rendono negativo. Forse l’esposizione ai bulli può costare la vita a qualcuno. E forse qualcuno muore per attacchi terroristici coordinati tramite i nostri strumenti. E ancora continuiamo a connettere le persone. La spiacevole verità è che crediamo così profondamente nel valore della connessione tra le persone che tutto ciò che ci consente di connetterne di più e più spesso è una cosa buona de facto.

«In un certo senso, questo sintetizza tutto ciò che occorre sapere su Facebook», ha scritto John Naughton sul Guardian commentando questo passaggio del libro. «L’unica cosa che Bosworth omise di menzionare è che più persone Facebook connette, più soldi Facebook guadagna».

Uno dei personaggi ritenuti fondamentali per lo sviluppo di strategie aziendali redditizie in Facebook fu Sheryl Sandberg, direttrice operativa e da molti considerata la persona più influente all’interno dell’azienda dopo Zuckerberg, che la assunse nel 2008 quando lui aveva 23 anni. Lei ne aveva 39 ed era da molti già considerata e descritta come un esempio di straordinario successo femminile in contesti strutturalmente maschili. Proveniva da una ammirata carriera da dirigente in Google, dopo una laurea in economia all’Università di Harvard e un’esperienza politica tra i Democratici come capo dello staff dell’ex segretario del Tesoro Larry Summers, durante la presidenza Clinton. Il nome di Sandberg era peraltro circolato tra quelli possibili per il ruolo di segretario del Tesoro in un’eventuale amministrazione di Hillary Clinton.

Per raggiungere gli obiettivi di crescita di anno in anno, spiegano Frenkel e Kang, Facebook ha continuato a sviluppare per lungo tempo la sua tecnologia di base prendendo decisioni aziendali basate su quante ore della giornata le persone trascorrono su Facebook e quante volte al giorno ci ritornano. Da questo punto di vista, la ragione degli accessi non era tenuta in considerazione, e per gli algoritmi era indifferente se le persone tornavano per augurare buon compleanno agli amici o se tornavano perché «attratti in qualche spirale di disinformazione e cospirazione».

«I problemi di Facebook erano caratteristiche della piattaforma, non bug [cioè errori], ed erano la naturale conseguenza di una collaborazione tra Zuckerberg, CEO e co-fondatore di Facebook, e la sua colta socia d’affari, Sandberg, direttrice operativa dell’azienda. Lui era il visionario della tecnologia e lei aveva capito come generare rendita dall’attenzione degli attuali 2,8 miliardi di utenti di Facebook. Insieme avevano lavorato per creare la più vasta rete di scambio di idee e comunicazioni al mondo», hanno scritto Frenkel e Kang.

Sheryl Sandberg e Mark Zuckerberg

Sheryl Sandberg e Mark Zuckerberg durante una pausa in una sessione di conferenze a Sun Valley, Idaho, l’8 luglio 2021 (Kevin Dietsch/Getty Images)

I rapporti tra Sandberg e Zuckerberg
Una parte del libro si concentra sull’evoluzione del rapporto tra Sandberg e Zuckerberg durante la presidenza di Trump. «Il suo ruolo come vice-Zuckerberg diventò meno saldo, con la promozione di molti altri dirigenti in azienda e con la sua influenza in diminuzione a Washington», scrivono Frenkel e Kang. Lei era entrata in Facebook per le sue riconosciute e apprezzate competenze professionali, e per la sua lunga esperienza nelle relazioni con funzionari governativi e rappresentanti delle istituzioni. Era un’area in cui Zuckerberg aveva intravisto una particolare debolezza dell’azienda, proprio in un momento in cui quei funzionari cominciavano a chiedersi se la raccolta di dati da parte delle piattaforme gratuite come Facebook potesse danneggiare in qualche modo gli utenti.

Nei primi tempi, oltre che suggerire scelte straordinariamente redditizie, Sandberg contribuì in modo significativo alla credibilità pubblica dell’azienda. Rappresentò Facebook al President’s Council on Jobs and Competitiveness, un comitato formato da vari dirigenti di imprese e università istituito dal presidente Obama nel 2009. Una volta accompagnò lo stesso Obama a bordo dell’Air Force One per un discorso del presidente sull’economia nella sede principale di Facebook a Menlo Park, in California. Già a partire dal 2010 cominciarono tuttavia a emergere alcune incomprensioni tra Sandberg e i funzionari del governo nel corso delle prime indagini sul trattamento dei dati, tra cui quella della Federal Trade Commission (FTC), l’agenzia governativa che si occupa di tutela dei consumatori e di privacy.

A ottobre del 2010, durante un incontro con il presidente della FTC Jon Leibowitz, Sandberg sostenne che le possibilità di controllo dei dati personali per gli utenti di Facebook fossero maggiori rispetto a quelle offerte da qualsiasi altra società di Internet. Leibowitz contestò in parte quell’osservazione segnalando che aveva visto sua figlia adolescente modificare con difficoltà impostazioni sulla privacy che avevano fino a quel momento reso molto semplice per soggetti sconosciuti trovare su Facebook lei e altri utenti come lei. Sandberg replicò cambiando argomento, atteggiamento che Leibowitz sembrò non gradire, stando a quanto riportato da persone presenti alla riunione e sentite da Frenkel e Kang: «sembrava ascoltare soltanto quello che voleva sentire».

A causare il progressivo isolamento in azienda di Sandberg e della sua squadra di lavoro, sempre meno numerosa, secondo le fonti consultate da Frenkel e Kang, contribuì in modo significativo il contesto politico e mediatico prodotto dal caso Cambridge Analytica e dalle generali e crescenti critiche, indagini e richieste di chiarimenti rivolte a Facebook in materia di trattamento dei dati personali, violazioni della privacy e reticenze in merito alle interferenze russe nelle elezioni presidenziali.

Frenkel e Kang scrivono che Zuckerberg cercò di instaurare una relazione amichevole con Trump, e nel frattempo cominciò ad assumere in prima persona cariche aziendali in precedenza delegate a Sandberg, la cui antipatia verso Trump era nota. Dall’altra parte, Sandberg si circondò sempre più di consulenti politici esterni e di funzionari delle pubbliche relazioni spesso in disaccordo con gli altri membri dell’azienda. Fece inizialmente affidamento sul collega Joel Kaplan, vicepresidente responsabile delle politiche globali, ex funzionario dell’amministrazione di George W. Bush nonché collega di Sandberg a Harvard.

Fu Kaplan a spiegare a Sandberg e Zuckerberg che occorreva ricostruire i rapporti con i Repubblicani, risentiti per il precedente sostegno ai Democratici. E dopo un imbarazzato incontro del presidente con i più importanti dirigenti delle società tecnologiche americane, avvenuto a dicembre 2016, fu direttamente Zuckerberg a diventare l’emissario di Facebook a Washington, sostengono Frenkel e Kang.

sandberg trump

Il CEO di Alphabet, Larry Page, la COO di Facebook, Sheryl Sandberg, il vicepresidente Mike Pence e il presidente Donald Trump, durante un incontro alla Trump Tower a New York, il 15 dicembre 2016 (Drew Angerer/Getty Images)

«Le crepe descritte dalle autrici tra Mark e Sheryl e le persone che lavorano con loro non esistono», ha risposto la portavoce di Facebook Dani Lever, commentando le prime anticipazioni del libro di Frenkel e Kang, e facendo notare che il ruolo di Sandberg nell’azienda non è cambiato. Lever ha anche affermato che le ipotesi di un isolamento di Sandberg in Facebook sostenute nel libro sembrano replicare gli schemi tipici degli «attacchi alle donne leader, basati sulla negazione del loro potere e delle loro competenze, e sulla loro emarginazione». Né Zuckerberg né Sandberg hanno accettato di essere intervistati durante la stesura del libro.

Frenkel e Kang sostengono che una delle ragioni della presunta insoddisfazione di Zuckerberg rispetto al lavoro di Sandberg riguardasse la gestione delle relazioni pubbliche in occasione delle interferenze elettorali russe e del caso Cambridge Analytica, l’azienda di consulenza e marketing – in contatto con alcuni stretti collaboratori di Donald Trump – responsabile dell’uso scorretto di enormi quantità di dati personali prelevati da Facebook. Sebbene le violazioni non riguardassero tecnicamente disguidi o inefficienze afferenti al lavoro di Sandberg e della sua squadra, Frenkel e Kang affermano che tra i dirigenti cominciarono a circolare perplessità riguardo ai tentativi di Sandberg di salvare l’immagine della società.

Facebook Sandberg

Sheryl Sandberg durante una visita a un gruppo di start up a Parigi, il 17 gennaio 2017 (AP Photo/Thibault Camus, File)

In un incontro dell’8 maggio 2019 con la speaker della Camera Nancy Pelosi, raccontano Frenkel e Kang, Sandberg ammise i problemi di Facebook e spiegò le azioni intraprese dall’azienda per tentare di risolverli. Facebook aveva eliminato falsi account esteri e assunto migliaia di moderatori di contenuti, e aveva iniziato a utilizzare l’intelligenza artificiale e altre tecnologie per cercare di rintracciare e rimuovere rapidamente e più efficacemente la disinformazione. Sandberg spiegò inoltre a Pelosi che Facebook non avrebbe ostacolato e anzi avrebbe facilitato i tentativi del governo di regolare Internet, come peraltro indicato da Zuckerberg il mese prima in un articolo pubblicato dal Washington Post.

Appena due settimane più tardi, circolò molto su Facebook – condiviso dalla pagina Politics Watchdog – e ottenne oltre due milioni di visualizzazioni un video in cui Nancy Pelosi parlava in modo incerto e balbettante durante una conferenza stampa. Il video era stato manipolato ma veniva presentato come autentico su numerose pagine Facebook e in molti gruppi privati, e cominciò a circolare anche su altri social network. «Cos’ha che non va Nancy Pelosi?», scrisse Rudy Giuliani, ex sindaco di New York e avvocato personale di Trump, condividendo il video.

YouTube rimosse rapidamente il video, mentre Facebook temporeggiò in attesa di prendere una decisione e formulare una risposta convincente per lo staff di Pelosi, che – riferiscono Frenkel e Kang – cominciò a chiamare insistentemente per chiedere spiegazioni in merito all’inarrestabile diffusione del video. Quel video aveva facilmente aggirato i controlli dei fact checkers e degli strumenti di intelligenza artificiale, che non lo avevano classificato come contenuto falso. Fu però un esempio molto chiaro, scrivono Frenkel e Kang, delle divisioni interne in Facebook e del disaccordo vigente su importanti questioni di principio.

Sandberg disse che riteneva più che sufficienti gli argomenti a sostegno della necessità di eliminare il video in base alle regole contro la disinformazione. Kaplan e i membri del team responsabile delle politiche aziendali sostennero l’importanza di apparire neutrali riguardo ai contenuti politici e mostrare coerenza rispetto alle precedenti difese della libertà di parola. Zuckerberg chiese se il video potesse essere definito una parodia, nel qual caso avrebbe potuto rappresentare un contributo importante per il dibattito politico. Due giorni dopo la pubblicazione del video, Zuckerberg prese la decisione: mantenere online il video.

La distanza tra Sandberg e i dirigenti di Facebook, proseguono Frenkel e Kang, aumentò ulteriormente in tempi più recenti, all’inizio del 2021, dopo l’attacco al Congresso degli Stati Uniti del 6 gennaio 2021. In un’intervista con Reuters, Sandberg suggerì che le responsabilità dell’organizzazione dell’assalto dovessero essere rintracciate in piattaforme che «non hanno la nostra capacità di arrestare l’odio, non hanno i nostri standard e non hanno la nostra trasparenza». Quella dichiarazione – un riferimento a piattaforme come Parler e Gab, utilizzate dall’estrema destra – fu ripresa da siti e giornali, e in molti la intesero come un modo di non ammettere responsabilità da parte di Facebook.

Anche in questa occasione, scrivono Frenkel e Kang, alcuni dirigenti considerarono inappropriata la strategia difensiva attuata da Sandberg. Dopo pochi giorni, cominciarono a emergere prove evidenti di un coordinamento delle milizie di estrema destra portato avanti su Facebook sia prima che durante l’assalto. Alcuni membri del gruppo “Oath Keepers” avevano apertamente parlato delle prenotazioni delle camere d’albergo, dei biglietti aerei e di altri aspetti logistici del loro viaggio programmato a Washington.

«Se non siete disposti a usare la forza per difendere la civiltà, allora preparatevi ad accettare la barbarie», era scritto in un messaggio pubblicato il 5 gennaio su una pagina Facebook chiamata “Red-State Secession” e frequentata da membri dei gruppi “Oath Keepers” e “Proud Boys” che avevano condiviso anche le immagini delle armi che avevano intenzione di portare alla manifestazione del 6 gennaio.

– Leggi anche: I piani delle milizie di estrema destra per l’assalto al Congresso

Le interferenze russe
Un’altra questione lungamente trattata in An Ugly Truth riguarda la catena di gestione interna delle informazioni sugli aggiornamenti e sulle problematicità dei sistemi dell’azienda. Nella maggior parte dei casi, le persone all’interno di Facebook erano al corrente di quello che succedeva ai sistemi, o per averlo rilevato direttamente o per essere state informate da altre persone. Ma spesso, al momento di riportare le comunicazioni ai superiori, a quelle comunicazioni non seguivano decisioni né azioni mirate a ridurre i rischi o trovare contromisure in tempi rapidi.

L’esempio più significativo è quello delle interferenze russe nei sistemi di Facebook, scoperte tra il 2016 e il 2017 dal team di investigatori interni guidati dal capo della sicurezza aziendale Alex Stamos, assunto in Facebook nel 2015 dopo un’esperienza di alto profilo in Yahoo. Stamos aveva contribuito a scoprire una vulnerabilità nei sistemi di Yahoo, approvata dalla CEO Marissa Mayer e intenzionalmente inserita per assecondare una richiesta di sorveglianza degli utenti da parte del governo. Si era quindi dimesso poche settimane dopo.

Le interferenze russe durante le elezioni presidenziali del 2016 furono due, raccontano Frenkel e Kang. La prima proveniva dall’agenzia di intelligence militare russa nota con la sigla GRU, i cui agenti avevano creato account e pagine Facebook per diffondere notizie false. Fu scoperta a marzo 2016, come chiarito in un’analisi circolata poi internamente l’anno successivo. Inizialmente il team di Stamos condivise una serie di rapporti sulla scoperta dell’interferenza con l’FBI, oltre che con i suoi diretti superiori, ma non ricevette alcuna risposta.

Alex Stamos

Alex Stamos durante un ciclo di conferenze annuale organizzato da TechCrunch a San Francisco, il 6 settembre 2018 (Steve Jennings/Getty Images for TechCrunch)

Quella situazione generò una certa frustrazione, scrivono Frenkel e Kang. Innanzitutto nel gruppo di Stamos nessuno sapeva se le agenzie di intelligence statunitensi stessero conducendo altre indagini e operazioni in autonomia. Inoltre Stamos e i suoi colleghi non avevano tra le mani il tipo di prove che avrebbe permesso loro di attribuire senza alcun dubbio, anche in un tribunale, quelle attività al governo russo. Facebook mostrò intanto una certa lentezza nel rimuovere quei contenuti, spiegano Frenkel e Kang, perché all’epoca non esistevano regole specifiche contro i gruppi stranieri che creavano pagine per manipolare l’opinione pubblica americana.

Facebook non intraprese alcuna azione nemmeno dopo aver notato che una pagina gestita da utenti in Russia e chiamata DCLeaks stava distribuendo il contenuto di email rubate alla campagna elettorale di Hillary Clinton. La pagina fu chiusa soltanto dopo che un analista responsabile della sicurezza appurò che i documenti condivisi contenevano informazioni personali, condizione che rappresentava una chiara violazione delle regole di Facebook. La prima interferenza russa scoperta dal gruppo di Stamos fu motivo di divisioni all’interno dell’azienda, scrivono Frenkel e Kang.

All’interno del gruppo di raccolta delle informazioni sulle minacce informatiche, si discusse su cosa si dovesse fare. Facebook era un’azienda privata, sostenevano alcuni, non un’agenzia di intelligence; la piattaforma non era tenuta a riferire le sue scoperte. Per quanto ne sapevano dentro Facebook, l’Agenzia per la sicurezza nazionale (NSA) stava monitorando gli stessi account russi e forse stava pianificando arresti. E sarebbe quindi stato irresponsabile per Facebook dire qualsiasi cosa.

Altri sostenevano che il silenzio di Facebook stesse facilitando gli sforzi russi per diffondere le informazioni rubate. La società avrebbe quindi dovuto rendere pubblico che account riconducibili alla Russia stavano diffondendo documenti rubati attraverso Facebook. Per queste persone nell’azienda, la situazione appariva come una potenziale emergenza nazionale. «Fu pazzesco. Non avevano un protocollo pronto, e quindi non volevano che prendessimo provvedimenti. Una cosa senza senso», ha riferito un membro del team della sicurezza.

Un’altra interferenza russa – in questo caso da parte dall’azienda Internet Research Agency, nota anche come “fabbrica dei troll”, con sede a San Pietroburgo – fu scoperta da Facebook soltanto dopo le elezioni. Un’indagine interna, portata avanti da Stamos e dal suo gruppo di lavoro all’insaputa di Zuckerberg e Sandberg, chiarì che l’azienda russa aveva pubblicato 80 mila post e speso 100 mila dollari in 3.300 annunci pubblicitari, raggiungendo 126 milioni di utenti americani. Fu questo, raccontano Frenkel e Kang, il momento in cui la posizione di Stamos all’interno di Facebook si indebolì. Le tensioni emersero con una certa evidenza nel corso di una riunione avvenuta il 9 dicembre 2016, in cui Stamos presentò i risultati dell’indagine sulle interferenze russe a Zuckerberg, il quale rispose: «Oh cazzo, come ci siamo persi questa cosa?».

L’indagine di Stamos avrebbe potuto esporre la società a responsabilità legali o metterla sotto la vigilanza del Congresso, e Sandberg, in qualità di responsabile dei rapporti tra Facebook e Washington, alla fine sarebbe stata chiamata a Washington per spiegare le scoperte di Facebook al Congresso. «Nessuno pronunciò queste parole, ma c’era questa sensazione che non si potesse rivelare ciò che non si conosce», secondo un dirigente che partecipò alla riunione.

La squadra di Stamos aveva scoperto informazioni che nessuno, incluso il governo degli Stati Uniti, aveva appreso in precedenza. Ma in Facebook, prendere l’iniziativa non era una cosa sempre apprezzata. «Indagando su ciò che la Russia stava facendo, Alex ci aveva costretto a prendere decisioni su cosa dire pubblicamente. E la gente non ne era contenta», ha ricordato il dirigente. «Si era preso la responsabilità di scoprire un problema. Non è mai una buona idea», ha osservato un altro partecipante alla riunione.

Come nel caso di Sandberg, anche Stamos fu progressivamente isolato all’interno dell’azienda, raccontano Frenkel e Kang. «Quando tornò al lavoro a gennaio, gran parte della sua squadra della sicurezza formata da 120 persone era stata sciolta». Era accaduto in parte per effetto di una scelta suggerita dallo stesso Stamos, ossia quella di distribuire quei dipendenti in vari reparti dell’azienda anziché lasciarli separati dagli altri gruppi. Ma una volta separati da Stamos, rimasto da parte sua con una squadra di appena cinque persone, quei dipendenti spediti in altri reparti «non ebbero alcun ruolo né visibilità nel loro lavoro».

Secondo John Naughton, che ha scritto di An Ugly Truth sul Guardian, uno degli effetti sorprendenti del libro è scoprire che all’interno di Facebook ci sono probabilmente più tensioni di quanto si pensi.

Molti dipendenti di Facebook hanno provato angoscia, frustrazione o rabbia per ciò che il loro datore di lavoro ha fatto nella sua incessante ricerca della crescita. Alcuni hanno tentato di avvisare i loro superiori riguardo alle loro preoccupazioni. Ma più e più volte le cattive notizie non hanno convinto quei capi perché non erano sincronizzate con l’imperativo prioritario di una crescita aziendale senza fine. E, come osservava notoriamente Henry Louis Mencken [giornalista e saggista statunitense], è difficile spiegare qualcosa a qualcuno il cui stipendio dipende dal non capire quella cosa.

Altre analisi del libro di Frenkel e Kang arrivano a conclusioni più generali e relative al funzionamento attuale delle società. Secondo il giornalista esperto di tecnologia Casey Newton, che in passato ha lavorato con Frenkel e Kang, la storia delle elezioni del 2016 va oltre l’influenza russa esercitata su Facebook.

È una storia sull’accelerazione della polarizzazione nel nostro paese; sulle preoccupazioni dei bianchi per i cambiamenti demografici; sul declino del giornalismo locale; e sulla frattura del nostro più ampio ecosistema di informazioni. Neppure la storia sull’interferenza russa riguardava semplicemente Facebook: il paese ha aperto la strada alla strategia di “hack and leak” — rubare documenti e condividerli con i principali organi di stampa, nascondendo la loro origine e dando a quei documenti maggiore legittimità una volta pubblicati.

Newton osserva che oggi Facebook, anche per effetto di quelle interferenze e delle scoperte di Stamos, è certamente una piattaforma tecnicamente meno vulnerabile, ma che questo non implica di per sé un ambiente informativo sano. «Le notizie di alta qualità sono troppo spesso relegate in una scheda secondaria, mentre a seconda del tuo amico e di cosa segui, il tuo feed potrebbe essere stupido, partigiano e polarizzante come sempre. Quale sarà il risultato delle persone che consumano anni di post attraverso feed che le informano male o le portano all’indignazione?».

– Leggi anche: Ora Facebook ha due comitati di controllo

Secondo Newton, le questioni fondamentali che emergono dalla lettura di An Ugly Truth non riguardano neppure tanto il dibattito sul modello di business “rotto” di Facebook. «Se Facebook avesse disattivato gli annunci nel 2015 e fosse diventato un’organizzazione senza scopo di lucro, la grandissima parte delle operazioni di interferenza russa nel 2016 sarebbe stata ancora possibile. Per me, questa è la storia di un social network enorme, potente, per lo più non regolamentato e – visto che i suoi dati sono di proprietà privata – ancora poco compreso».

– Leggi anche: Dovremmo studiare meglio gli effetti dei social network sul comportamento collettivo

Stamos lasciò Facebook nell’estate del 2018, e insegna oggi al Centro per la sicurezza e la cooperazione internazionale dell’Università di Stanford, dove è anche direttore dello Stanford Internet Observatory, un gruppo di lavoro da lui fondato che analizza e studia le dinamiche di influenza sviluppate sulle piattaforme social in tutto il mondo.