domenica 13 Aprile 2025

Charlie, abbassate le aspettative

Avrete notato che tra i siti di news – in Italia e altrove – che hanno iniziato a pubblicare testi prodotti dalle “intelligenze artificiali”, alcuni hanno scelto modi diversi di avvertire i lettori di questa particolare genesi di quegli articoli. L’idea è che i lettori possano quindi fare la dovuta tara all’accuratezza dei testi in questione: e a volte le diciture dicono proprio “questo articolo è stato prodotto da un’intelligenza artificiale e quindi potrebbe contenere degli errori”.
(non parliamo qui dei “disclaimer” sul fatto che le AI possano essere state usate come strumento da chi ha scritto e verificato la versione finale di un articolo, un umano).

Se ci pensate, è un buffo modo di interpretare la funzione del giornalismo e delle sue responsabilità: è un po’ come pubblicare degli articoli senza controllare niente e scrivere in testa “questo articolo è stato scritto senza controllare niente e quindi potrebbe contenere degli errori”. O come affidare delle inchieste giornalistiche a un bambino di nove anni, e indicarlo chiaramente in testa all’articolo: “sapete com’è, è un bambino di nove anni, non è che possa sapere tutto”.
Come dicevamo qualche settimana fa, ci sono prospettive sicuramente innovative nell’uso delle AI nel giornalismo: la replica del lavoro dei giornalisti al posto loro non solo è la più pigra, ma anche la meno corretta.

Fine di questo prologo.

p.s. di questo prologo: a margine, possiamo definire buffa anche la convivenza, nei testi pubblicati dal Sole 24 Ore, della dicitura “generato automaticamente” accanto alla rivendicata garanzia del “Trust project”.

Charlie è la newsletter del Post sui giornali e sull'informazione, puoi riceverla gratuitamente ogni domenica mattina iscrivendoti qui.