• Media
  • Sabato 21 gennaio 2023

Cosa succede se fai scrivere i tuoi articoli a un’intelligenza artificiale

Un sito di tecnologia sperava di massimizzare la propria presenza su Google, ma è finita con i suoi redattori costretti a fare decine di correzioni

Un'immagine creata da un'intelligenza artificiale seguendo le istruzioni “un'intelligenza artificiale che scrive un articolo online”
Un'immagine creata da un'intelligenza artificiale seguendo le istruzioni “un'intelligenza artificiale che scrive un articolo online”
Caricamento player

Da novembre a oggi il sito di news CNET, che si occupa soprattutto di tecnologia, ha pubblicato almeno 70 articoli scritti da un’intelligenza artificiale, cioè da un software in grado di imitare la scrittura umana dopo aver ricevuto dati e indicazioni sugli argomenti da trattare. Per più di due mesi lo ha fatto senza comunicare in modo trasparente come fossero stati scritti quegli articoli, finché non se n’è accorto Futurism, un altro sito che si occupa di tecnologia.

In ogni caso non è andata benissimo: Futurism aveva notato in quegli articoli una serie di goffi errori, e nell’ultima settimana i giornalisti di CNET sono stati costretti a inserirvi decine di avvisi per segnalare correzioni. In altri casi hanno aggiunto avvertimenti come: «Attualmente stiamo verificando l’accuratezza di questa storia». Dopo varie segnalazioni e polemiche, venerdì 20 gennaio la direttrice di CNET, Connie Guglielmo, ha annunciato agli altri dipendenti del sito la sospensione della pubblicazione di articoli scritti dall’intelligenza artificiale.

Negli ultimi mesi sistemi come ChatGPT hanno mostrato anche a un pubblico non specialistico le potenzialità degli strumenti di intelligenza artificiale nella scrittura, attirando moltissime attenzioni e curiosità. Applicato all’editoria e al giornalismo il tema però diventa particolarmente delicato: il settore è variamente in crisi un po’ ovunque da tempo, e di fronte a questi strumenti si ritrova diviso tra la possibilità di approfittarne per alcuni specifici tipi di contenuti – quelli più “di macchina” appunto –permettendo ai giornalisti di dedicarsi a cose più originali, e la paura di vedere il proprio ruolo perdere progressivamente utilità e centralità, perché sostituito dalla tecnologia.

– Leggi anche: È arrivato un “chatbot” diverso da tutti gli altri

Ci sono recenti studi che hanno mostrato come spesso le persone non siano in grado di distinguere tra un testo prodotto automaticamente da un’intelligenza artificiale e uno scritto da un essere umano. Ma per quanto i software siano in grado di produrre articoli perfettamente sensati, il caso di CNET ne ha mostrato anche i molti limiti, che vanno dalla scarsa affidabilità giornalistica alla poca capacità di creare contenuti interessanti per i lettori.

Come hanno fatto notare in molti, gli articoli di CNET generati automaticamente da un software sono perlopiù noiosi, pieni di luoghi comuni e frasi fatte. Uno per esempio dice: «La scelta tra una banca e una cooperativa di credito dipende da persona a persona. Dovrete soppesare pro e contro con i vostri obiettivi per capire quale vada meglio per voi». È una considerazione sensata, ma del tutto ovvia e inutile per una persona che stia cercando un vero consiglio. Più sotto ribadisce ancora che ogni banca «ha i suoi pro e contro».

Sono insomma testi poco accattivanti, incapaci di comunicare ironia o qualsiasi altra emozione e, come è stato scoperto, dai contenuti spesso inaffidabili. L’altro rischio molto frequente in questo genere di articoli è quello del plagio: alcuni giorni fa lo scrittore Alex Kantrowitz per esempio ha scoperto che un software aveva copiato diverse frasi da un suo articolo. La mancanza di originalità e gli errori sono dovuti fondamentalmente alla stessa ragione: quello che fanno i software è scandagliare fonti già disponibili online per affinare le loro capacità, ma senza la possibilità di applicare a questa selezione uno sguardo critico.

L’utilizzo di strumenti di intelligenza artificiale comunque non è una cosa del tutto nuova per il giornalismo. Nel 2014 Associated Press, una delle più importanti e affidabili agenzie di stampa al mondo, cominciò per esempio a usarli per certi articoli perlopiù compilativi e fatti sempre con lo stesso schema: come alcune brevi relazioni sui guadagni delle aziende e dal 2016 per alcuni resoconti degli eventi sportivi.

Altri giornali usano strumenti di intelligenza artificiale per coadiuvare il lavoro in altro modo: il Financial Times per esempio ha creato uno strumento che controlla in automatico se negli articoli pubblicati vengono interpellati troppi uomini a discapito delle donne.

Anche nel caso di CNET non si tratta di articoli particolarmente originali, ma sono comunque decisamente più complessi di quelli di Associated Press, che nella pratica non prevedono niente di più che l’inserimento di nuove informazioni in schemi predeterminati. CNET invece produceva con l’intelligenza artificiale articoli anche di una certa lunghezza, su argomenti come mutui, investimenti e sistemi di pagamento.

Fino alla rivelazione di Futurism l’autore degli articoli di CNET prodotti dall’intelligenza artificiale era indicato come “CNET Money Staff”, e solo cliccando sopra questa scritta si scopriva che era stato scritto da una «tecnologia automatizzata», un modo forse volutamente vago per indicare l’intelligenza artificiale. Ora invece viene indicato chiaramente, insieme al nome di un redattore che si dice abbia poi controllato e corretto l’articolo.

Guglielmo, la direttrice di CNET, si è giustificata in un comunicato spiegando che si tratta di un «esperimento» il cui obiettivo è «vedere se la tecnologia può aiutare il nostro staff di giornalisti nel lavoro, per coprire gli argomenti a 360 gradi». Secondo alcune testimonianze raccolte da The Verge tra i dipendenti ed ex dipendenti di CNET, la pratica di usare l’intelligenza artificiale potrebbe essere stata usata per molti altri articoli del sito nell’ultimo anno e mezzo, senza che fosse esplicitamente dichiarato.

Gli articoli in questione sono del genere che viene definito “da SEO” (search engine optimization, cioè “ottimizzazione per i motori di ricerca”), quelli che cercano di posizionarsi più in alto possibile sui motori di ricerca per ricevere più visite. Sono solitamente articoli che rispondono a domande o a necessità molto specifiche: nel caso di CNET alcuni esempi sono “Cos’è Zelle e come funziona ” (è un sistema di pagamento), o “Dovresti interrompere in anticipo un certificato di deposito per ottenere un tasso di interesse migliore?”, o ancora “Pro e contro di investire in certificati di deposito”. Questi articoli non hanno bisogno di essere particolarmente ricercati, seguono spesso uno schema fisso e utilizzano abbondantemente le parole chiave di un certo argomento per apparire tra i primi risultati nei motori di ricerca.

In molti casi gli articoli da SEO non hanno nulla di deontologicamente scorretto e possono essere anche molto utili ai lettori, ma l’uso che ne ha fatto CNET con l’intelligenza artificiale rivela alcuni problemi e necessità dell’industria giornalistica in crisi, che in molti hanno notato.

Nel primo decennio del Duemila CNET era considerato uno dei siti più promettenti nel campo dell’informazione tecnologica, tanto che fu acquistato nel 2008 per 1,8 miliardi di dollari da CBS, una delle più grandi emittenti televisive degli Stati Uniti. Col tempo però ha sofferto come altri l’evoluzione dell’industria dei media, senza riuscire a proporre un modello di business del tutto convincente, e nel 2020 CBS lo rivendette per 500 milioni di dollari a Red Ventures, una società di private equity che investe nei media.

È per questo che oggi produce molti articoli da SEO anche se non hanno granché a che fare con la sua principale specializzazione, cioè la tecnologia: Red Ventures punta esplicitamente a pubblicare contenuti che possano posizionarsi in alto nei motori di ricerca, senza badare troppo alla loro qualità giornalistica, per aumentare il traffico sul sito e sostanzialmente aumentare i profitti.

Normalmente i siti gratuiti guadagnano grazie alle pubblicità sul sito, con gli inserzionisti che pagano più soldi tanto più il sito è in grado di attrarre visite e “clic” sulle sue pagine. Red Ventures alla solita pubblicità ha aggiunto questo sistema un po’ più sofisticato, cercando di massimizzare le affiliazioni, cioè gli accordi commerciali, con società di carte di credito, mutui o altri sistemi di pagamento. Le affiliazioni di solito prevedono che un sito, in questo caso per esempio CNET, guadagni una percentuale degli acquisti conclusi attraverso i link che ospita sulle proprie pagine.

– Leggi anche: Perché i giornali cercano di vendervi cose

Non sono accordi segreti, e molto spesso vengono dichiarati negli articoli in questione (è quello che fa il Post nella sua sezione che si chiama Consumismi): anche CNET ha in fondo agli articoli una frase che molto discretamente segnala «se compri attraverso i nostri link potremmo ricevere una commissione». Nel caso dei siti di carte di credito e simili, queste commissioni sono particolarmente alte e redditizie: è il motivo per cui Red Ventures investe su siti che possano produrre questi contenuti, e oltre a CNET ne possiede altri come Bankrate e CreditCards.com, che a loro volta hanno usato l’intelligenza artificiale in molti articoli.

Contenuti di questo genere non hanno bisogno di essere particolarmente interessanti: per Red Ventures l’importante è che ci siano, e che più persone possibili li trovino e ci clicchino sopra. Farli fare a un’intelligenza artificiale significa inoltre ridurre molto i costi necessari a pagare i giornalisti, e infatti da quando Red Ventures ha acquistato CNET sono state licenziate decine di persone.

Il rischio di un utilizzo massiccio dell’intelligenza artificiale per produrre articoli da SEO è che i motori di ricerca diventino pieni di questi contenuti, non esattamente tra i più interessanti per gli utenti, anche perché i software sono in molti casi più bravi degli esseri umani a scrivere articoli che si posizionino in alto sui motori di ricerca. Un altro timore segnalato da molti è che in futuro vengano usati al di fuori del marketing, per esempio per influenzare l’opinione pubblica in campagne di propaganda o a fini politici.

– Leggi anche: Come le intelligenze artificiali disegnano il mondo