domenica 12 Ottobre 2025

Charlie, due pesi

Una nuova ricerca del Reuters Institute ha raccolto le esperienze e le opinioni di circa 12mila persone in sei paesi del mondo a proposito dell’uso dei software di “intelligenza artificiale”. Ne sono uscite molte considerazioni ma quelle più rilevanti per il dannato futuro dei giornali sono due.
Una è che continua ad aumentare l’uso di simili servizi per la ricerca di informazioni di vario genere, e questo va a scapito dei siti di news, tradizionali fornitori di molte di queste informazioni. Ormai le prove di questa tendenza sono tante. Solo un terzo degli interpellati dice di cliccare con frequenza sui link dopo aver letto le sintesi offerte in testa alle pagine dei risultati di Google: un terzo dice di non farlo mai.
La seconda questione su cui riflettere è più complessa: a quanto pare sempre più persone usano abitualmente e serenamente i vari software di intelligenza artificiale per le proprie necessità, accettando il margine di insicurezza dei risultati in termini di qualità e accuratezza. Ma se si chiede alle stesse persone un giudizio sull’uso degli stessi software da parte dei giornali, una gran parte se ne dice critica e diffidente.

Le letture di questa contraddizione possono essere due. Una è che ci sia una specie di ipocrisia che ci rende severi contro l’uso delle AI da parte di altri, ma indulgenti se le usiamo noi. O una specie di supponenza che ci fa pensare di saper essere più prudenti o esperti degli altri: non da escludere, è una tendenza assai comune. Comunque sia, questa diffidenza resta piuttosto generica e superficiale: “usare l’intelligenza artificiale” può voler dire molte cose, e già adesso chi lavora e scrive usa molti strumenti tecnologici per perfezionare il proprio risultato (correttori automatici, archivi online, software di ritocco fotografico), per cui la diffidenza verso le “AI” è spesso più legata al loro nome e alla loro apparente novità. Dovremmo abituarci a valutare i risultati di un lavoro giornalistico (è accurato o no? è completo o no? svolge adeguatamente la sua funzione di informazione?) piuttosto che l’insignificante percorso della sua costruzione (ci sono testi prodotti dalle “AI” che hanno maggiore accuratezza di certi testi prodotti dagli umani, per dire).

La seconda – più apprezzabile – lettura della contraddizione è che le nostre aspettative nei confronti del lavoro giornalistico siano maggiori di quelle che abbiamo per noi stessi. E che laddove consentiamo alle nostre ricerche di informazioni un margine di mediocrità e approssimazione – non dando a quelle ricerche ruoli rilevanti: non scegliendo delle cure mediche, per esempio -, diamo una maggiore credibilità al lavoro giornalistico e lo assumiamo per farci un’idea più radicata e affidabile del mondo. È una pretesa lusinghiera per i giornali, ma che deve imparare a fare i conti col costo di quella differenza: e capire che un lavoro giornalistico, se lo si vuole migliore di quello che fa ChatGPT, ha dei costi a cui serve contribuire. Nessuno è obbligato, basta che poi non si pretenda che giornali in crisi di risorse economiche non ricorrano sciattamente alle “AI” (vedi sotto).

Fine di questo prologo.

Charlie è la newsletter del Post sui giornali e sull'informazione, puoi riceverla gratuitamente ogni domenica mattina iscrivendoti qui.