Si può riconoscere un testo scritto dall’intelligenza artificiale?

Esistono trucchi e siti che possono dare qualche indizio, ma è molto facile sbagliarsi

Due detective e uno stenografo conducono una perizia calligrafica con un sospettato
Due detective e uno stenografo conducono una perizia calligrafica con un sospettato, a Los Angeles, nel 1952 (Los Angeles Examiner/USC Libraries/Corbis/Getty Images)
Caricamento player

Uno dei più grandi gruppi editoriali negli Stati Uniti, Hachette, ha recentemente ritirato dal mercato un suo romanzo intitolato Shy Girl, dopo aver scoperto che per scriverlo era stato utilizzato un software di intelligenza artificiale (AI) generativa, come ChatGPT. A sollecitare una revisione del testo erano state le accuse di alcuni lettori all’autrice, Mia Ballard, che si è difesa attribuendo la responsabilità a un suo collaboratore incaricato di rivedere la prima versione del libro.

Negli ultimi anni, con la diffusione di software di intelligenza artificiale che producono testi, audio, immagini e video, l’attenzione all’originalità delle opere è molto aumentata. Riconoscere chi usa l’AI per scrivere non è però per niente facile e anzi spesso è impossibile, perché non esistono metodi né strumenti per farlo con certezza. Anche per questo si è diffuso un approccio scettico che spinge le persone ad andare in cerca di possibili indizi dell’uso di AI nei testi scritti. Con tutti i rischi che ne conseguono per la reputazione di chi è accusato ingiustamente.

L’approccio più diffuso consiste nell’individuare indizi in particolari caratteristiche stilistiche e formali dei testi, tipiche delle risposte dei principali chatbot basati sull’intelligenza artificiale. Una di queste per esempio è la presenza di elenchi per punti, spesso tre: è un formato frequente nelle risposte dei chatbot a domande aperte, che non prevedono una sola risposta precisa. I chatbot, a quanto pare, vanno anche matti per gli emoji: il 70 per cento dei messaggi creati con ChatGPT ne contiene almeno uno, secondo un’analisi del Washington Post.

Un’altra caratteristica nota è l’uso abbondante del trattino lungo (—), un comune segno d’interpunzione usato per gli incisi e i dialoghi, molto diffuso nei testi anglosassoni, specialmente nel giornalismo, e meno in quelli italiani. Ma la caratteristica che le persone attribuiscono sempre più spesso ai testi prodotti con ChatGPT o altri software simili è una certa tendenza ai cliché e alla ripetizione dello stesso concetto. A volte persino di una stessa frase.

– Leggi anche: Stiamo appaltando la verità all’AI

Le critiche condivise online da lettori e lettrici del libro ritirato da Hachette, per esempio, si erano concentrate sul fatto che frasi descrittive dei personaggi piuttosto piatte si ripetevano tali e quali a distanza di poche righe. Il che in effetti è piuttosto sospetto, o quantomeno indice di una revisione sciatta e trascurata. Nel testo era molto presente anche una costruzione delle frasi tipica dei testi fatti con l’AI: «non solo x, ma anche y», oppure «questo non è x, è y». E c’erano frequenti ripetizioni di espressioni figurate come a monument to, a testament to (“un monumento a”, “una testimonianza di”).

Nei testi generati con l’AI abbondano di solito anche i connettivi testuali, cioè parole come “perciò”, “inoltre”, “dunque”, “insomma”, “quindi”, “di conseguenza” e altre, usate per stabilire una relazione tra due parti. E c’è in generale un gran gusto per l’enfasi: è tutto epocale, clamoroso e importantissimo.

Per via di un’altra caratteristica tipica dei chatbot – le risposte adulatorie (“Hai perfettamente ragione!”) – alcune parti del testo sono frasi rivolte direttamente all’utente con la seconda persona singolare, perlopiù all’inizio e alla fine delle risposte. A volte succede che chi usa l’AI dimentichi di cancellarle, con effetti involontariamente comici e suscitando attenzioni e commenti sarcastici, come successo a ottobre al quotidiano La Provincia di Civitavecchia. La parte conclusiva di un articolo, circolata moltissimo sui social, era: «vuoi che lo trasformi in un articolo da pubblicare su un quotidiano (con titolo, occhiello e impaginazione giornalistica) o in una versione più narrativa da magazine d’inchiesta?».

– Leggi anche: Spot e videoclip fatti con l’AI devono mettere in conto le critiche

L’altro approccio diffuso tra chi cerca indizi dell’uso dell’AI è meno artigianale e più tecnologico. Prevede di revisionare parte dei testi sospetti usando strumenti appositi disponibili online e basati a loro volta sull’AI, come GPTzero o QuillBot, che permettono di scoprire con un’approssimazione variabile se un certo testo è stato generato usando ChatGPT o programmi equivalenti. Sottoponendo alcune parti del libro ritirato da Hachette, la risposta di GPTzero e QuillBot è che sono «al cento per cento» scritte con l’AI.

Il sistema di rilevamento basato sull’AI che fa funzionare questi programmi o altri simili, specifici per altri formati, è però noto anche per la sua inaffidabilità. «Non esisterà mai uno strumento di rilevamento in grado di identificare al 100 per cento se l’AI è stata utilizzata in testi, immagini, video o qualsiasi altro formato», ha detto al New York Times il ricercatore Mike Perkins, coautore di uno studio sui sei principali rilevatori di testo basati sull’AI generativa.

Innanzitutto perché è facile sfuggire a questo tipo di controllo: basta apportare modifiche “umane” al testo scritto dall’AI, anche minime, per rendere impossibile scoprirne l’origine. Ed è inaffidabile anche l’approccio artigianale, basato sull’analisi “a occhio”: basta dire ai chatbot di non usare cliché, ripetizioni e altre caratteristiche stilistiche tipiche dei chatbot per ottenere risposte non da chatbot.

Le perplessità a proposito della crescente “caccia” a chi usa l’AI per scrivere non dipendono tra l’altro solo dai limiti degli strumenti a disposizione per scoprirlo: riguardano gli obiettivi e il senso della ricerca stessa. Che una persona utilizzi segretamente strumenti di AI è una preoccupazione per molti aspetti legittima e comprensibile. Lo è in contesti in cui ci si aspetta che l’uso sia quantomeno guidato e supervisionato, per esempio nella scuola, o dichiarato e consapevole, per esempio nella ricerca scientifica e nell’informazione.

– Leggi anche: Il lavoro di chi rivede gli articoli scientifici si è molto complicato

Ma molti altri usi dei chatbot per scrivere sono sempre più comuni e normali, e non ha molto senso definirli ingannevoli, a patto che chi usa l’AI se ne assuma la responsabilità. Dalla persona che cerca ispirazione per un biglietto di auguri, al tecnico che vuole scrivere per i propri collaboratori una guida più chiara di come la scriverebbe senza l’AI, al ricercatore non madrelingua inglese che vuole verificare che il testo di un proprio abstract sia scritto in un inglese non traballante.

Attualmente il rischio è più che altro quello dei cosiddetti falsi positivi: cioè di accusare una persona di usare l’AI senza averne alcuna certezza. È un rischio di cui tra l’altro sono consapevoli le stesse aziende che sviluppano i rilevatori basati sull’AI. QuillBot ricorda di «usare il buon senso» quando si esaminano i risultati e di non affidarsi mai soltanto ai suoi risultati «per prendere decisioni che potrebbero avere un impatto sulla carriera o sul percorso accademico di qualcuno».

La stessa attenzione dovrebbe guidare anche eventuali valutazioni umane, “a occhio”: non basta sapere che l’AI fa largo uso di emoji, trattini lunghi e costruzioni del tipo «non solo x, ma anche y» per concludere che un testo con tali caratteristiche è stato scritto con ChatGPT. Anche perché, prima di essere caratteristiche tipiche dei testi dei chatbot, sono tipiche dei testi umani usati per l’addestramento dei modelli linguistici alla base dei chatbot.

Non potendo essere oggettive, spesso le valutazioni dei lettori assecondano delle sensazioni e sono infondate, ha detto di recente al New York Magazine una scrittrice di romanzi storici, Kerry Chaput. Come molte altre autrici e autori di genere, si è detta preoccupata della deriva paranoica che hanno preso le accuse sui social.

«Ci sono convenzioni sul numero di parole, convenzioni sulle frasi, regole di scrittura che tutti seguiamo», ha detto Chaput, e la parte più difficile è dimostrare che le convenzioni a cui lei e altri si attengono siano precedenti rispetto a quelle pedissequamente seguite da ChatGPT. Il paradosso, come ha notato il New York Magazine, è che le scrittrici e gli scrittori più penalizzati sono proprio quelli più inclini a scrivere in modo grammaticalmente preciso e impeccabile, molto diverso «dal modo goffo e impacciato in cui la maggior parte di noi digita».

– Leggi anche: Il post virale che fa previsioni dirompenti sull’AI