Internet sta marcendo

Che fine ha fatto il web dei primi anni Novanta? Quello che esisteva prima delle grandi piattaforme, che monopolizzano gli utenti le cui comunicazioni (i “contenuti”) a loro volta oggi possono così essere facilmente monitorate e controllate. Certo, ci sono ancora cose old style, soprattutto sui livelli alternativi realmente decentralizzati (ad esempio ZeroNet: dovreste provarlo) ma la rete di pagine web composte da geek e smanettoni è letteralmente scomparsa, nascosta da Google, irrilevante per Facebook, spesso uccisa dalla chiusura dei grandi contenitori della prima ora (Geocities e altri).

C’è un altro problema, però. L’Atlantic lo riassume con un bel titolo a effetto che uso anche io: The Internet Is Rotting e l’idea è semplice: la colla che tiene assieme la conoscenza umana si sta sciogliendo, internet sta marcendo e perdiamo costantemente moltissima conoscenza.

Smontare il giocattolo
La colla sono i link, non sono le pagine. Dopotutto il web è un ipertesto ed è costruito sull’idea di collegare la conoscenza: non soltanto la ricerca (Google) o il flusso (Facebook e Twitter) ma la possibilità di passare da una pagina all’altra grazie ai link. Ad esempio, come il link all’articolo dell’Atlantic, che da questo testo che state leggendo si raggiunge con un deep link (un link a una specifica pagina, anziché alla home di un sito). Perché questo succeda, però, bisogna che quel link funzioni, cioè che la pagina sia disponibile nella forma vista da me a quell’indirizzo. E invece questo molto spesso non succede più.

La ricerca fatta da Zittrain, professore di informatica e diritto, nonché autore dell’articolo in questione, mostra che un quantitativo enorme di link usati dal 1996 in avanti, non funzionano più, sono rotti. Il 25% di quelli contenuti negli articoli del NYTimes (il giornale è online dal 1996), non funziona. Ma se si guardano gli articoli più vecchi del NYTimes (pubblicati prima del 2000) diventa il 72%.

I link falliscono non solo perché il contenuto viene tolto dalla rete. Invece, molto più spesso quel che succede è che cambia l’indirizzo perché il sito viene ristrutturato. Nel 2016 dei ricercatori dell’università di Priceton hanno visto che il 75% dei paper a cui faceva riferimento il corpus di 3,5 milioni di articoli raccolto, avevano cambiato indirizzo. Come se i libri di casa vostra finissero a casa di qualcun altro, oppure se la copertina rimanesse ma cambiasse (o non si trovasse più) il contenuto. È un titanico problema di permanenza della conoscenza, e al tempo stesso una sconfitta enorme per tutti noi.

Il motore della disgrazia
Il problema ha una parte tecnica complessa. Cominciamo da qui: quelle che noi percepiamo come “pagine web” sono quasi sempre composizioni costruite dinamicamente, il risultato di una aggregazione di elementi ma anche di una attività di calcolo basata su eseguibili Javascript interpretati in tempo reale: questo può accadere indifferentemente nel server web o nel browser. Il risultato può variare sostanzialmente anche in una stessa sessione.

Ad esempio: se aprite una pagina di Wikipedia nel browser, premete mela-f (su Mac, ctrl-f su Pc) e cercate una parola qualunque, la trovate solo nelle sezioni “aperte”, perché quelle chiuse non sono ancora state renderizzate e probabilmente neanche scaricate. Se aprite le varie sezioni, la parola compare.

In generale, siamo ben oltre il punto in cui quello che viene mostrato a me da un URI (Uniform Resource Identifier, cioè l’indirizzo che identifica una risorsa per nome a uno specifico URL) è la stessa cosa che viene mostrata anche a ciascuno di voi. La targettizzazione effettuata tramite il tracciamento, oppure la geolocalizzazione degli IP di chi chiede l’accesso a una pagina ne sono l’esempio più lampante.

Il web non è statico
L’altro problema: le pagine web quasi sempre non sono dei singoli documenti informatici autonomi (file di testo html e immagini). Sono invece degli elementi in un database. Archiviare queste pagine richiede in realtà di archiviare tutto il database e i software necessari a farlo funzionare (nella versione corretta) o quantomeno chiedere una copia di tutti gli elementi, sperando di non dimenticarsi nessuna combinazione.

L’avidità, la pigrizia e in alcuni casi anche l’ignoranza di chi sviluppa molti dei siti web e compone le singole pagine è solo una parte tutto sommato secondaria, ma impatta anche quella. Tuttavia, c’è anche una forma di pensiero diversa, basata sull’importanza delle piattaforme, del loro modo di trattare l’informazione (il flusso contrapposto al documento) e il modello basato sulla ricerca anziché sulla rete e gli indirizzi (se le cose sono sono tutte mescolate a casaccio, qualsiasi navigazione partirà probabilmente da un motore di ricerca). Il vantaggio per chi costruisce piattaforme e motori di ricerca e poi monetizza i profili degli utenti e i loro contenuti è evidente, quello dei suddetti utenti è altrettanto evidentemente uno svantaggio sistematico e sistemico.

La conclusione è semplice: abbiamo costruito una rete estremamente fragile ma molto più importante di quello che crediamo. E la stiamo poco a poco perdendo, assieme a quello che contiene, per ignoranza, malagestione e avidità.


Porto avanti questi e altri ragionamenti sul mio canale Telegram e nella mia newsletter Mostly Weekly

Antonio Dini

Giornalista e saggista, è nato a Firenze e ora vive a Milano. Scrive di tecnologia e ama volare, se deve anche in economica. Ha un blog dal 2002: Il Posto di Antonio