• Libri
  • Lunedì 9 ottobre 2023

Amazon si sta riempiendo di libri scritti con le intelligenze artificiali

Sono spesso guide di viaggio, sempre autopubblicate, e si piazzano molto bene nel motore di ricerca interno

di Pietro Minto

Lo scorso giugno l’autrice di romanzi rosa australiana Catherine Bilson ha pubblicato su X, l’ex Twitter, lo screenshot di un titolo incluso da Amazon nella Top 100 degli ebook più venduti nella categoria “Romanzi rosa contemporanei per adolescenti e giovani adulti”. Il libro, dallo sgrammaticato titolo di wait you love me, aveva una copertina bizzarra – la foto di un gabbiano in bianco e nero – ed era firmato dalla sconosciuta Quynh Ti. Anche la descrizione dell’opera era insolita, oltre che poco comprensibile: secondo Bilson, wait you love me è solo uno dei molti libri generati dalle intelligenze artificiali che da qualche mese hanno invaso Amazon.

Già a inizio anno l’agenzia di stampa Reuters aveva raccontato la diffusione di libri generati da software di intelligenza artificiale che erano stati caricati sulla piattaforma di Amazon in poche settimane. Una delle persone intervistate aveva detto di aver creato un ebook illustrato per l’infanzia «in poche ore», per poi metterlo immediatamente in vendita sul sito utilizzando il servizio di autopubblicazione di Amazon Kindle Direct Publishing (KDP). La piattaforma permette agli autori di autopubblicare le proprie opere direttamente su Amazon, puntando in particolare sugli utenti di Kindle, il lettore per ebook di proprietà dell’azienda stessa, ma anche di metterle in vendita in formato cartaceo, dato che la stessa Amazon offre un servizio di stampa su richiesta. KDP, per capirci, è il servizio usato dal generale Roberto Vannacci per pubblicare il suo famoso libro di opinioni razziste e sessiste.

La diffusione di questo tipo di contenuti è una diretta conseguenza di tecnologie come ChatGPT, il software di intelligenza artificiale di OpenAI che più si è distinto per la capacità di generare testi di vario tipo imitando quelli scritti da esseri umani.

Lo stesso ChatGPT è indicato come autore o co-autore di centinaia di libri, come The Chatbot Revolution. ChatGPT: An In-Depth Exploration, una guida alla «rivoluzione dei Chatbot» scritta in collaborazione con un chatbot, appunto. Secondo Amazon, il libro sarebbe stato scritto da Marco Bardo (indicato come autore) ma curato da «ChatGPT OpenAI». Ha un totale di tre voti e due recensioni dai toni piuttosto polarizzati: la prima, da cinque stelle, lo definisce «interessante, ben scritto» mentre la seconda sostiene sia stato «forse scritto con ChatGPT, ma davvero malamente». L’autore della recensione si dice «davvero sorpreso negativamente» dall’acquisto. Tra i libri indicati da Amazon come a cura di ChatGPT, figurano soprattutto saggi che parlano delle intelligenze artificiali, ma anche testi di teologia sull’Apocalisse e libri per bambini di appena due pagine.

L’apporto dato dalle intelligenze artificiali non è però sempre dichiarato esplicitamente. Nelle scorse settimane diverse testate hanno raccontato della diffusione di libri presentati come scritti da essere umani pur essendo stati generati da ChatGPT o servizi simili. Lo scorso agosto il New York Times ha rivelato che una guida di viaggio generata dalle intelligenze artificiali – France Travel Guide di Mike Steves – era tra i primissimi risultati di ricerca con termini come “viaggio”, “guida turistica” e “Francia”. Anche per via delle sue ottime recensioni, con più di cento giudizi che davano al libro cinque stelle su cinque, molte persone hanno comprato France Travel Guide, scoprendo che si tratta di una serie di vaghe descrizioni che sembrano copiate e incollate da blog e voci di Wikipedia.

In alcuni casi, infatti, libri simili sono accompagnati da recensioni positive, lasciate da bot programmati per pubblicare commenti entusiasti. Il recente fenomeno dei libri generati con le intelligenze artificiali ha quindi finito per incontrare quello, noto da tempo, delle recensioni finte su Amazon, creando un circolo vizioso. Un libro può essere generato con ChatGPT, venduto spacciandolo per l’opera prima di un autore in una descrizione composta con ChatGPT, e promosso con dei bot che scrivono recensioni entusiaste, sempre usando ChatGPT.

Al momento della pubblicazione di questo articolo se si cercano sullo store italiano di Amazon le parole chiave “guida viaggi 2023” i primi risultati che si trovano sono libri come BUDAPEST GUIDA DI VIAGGIO 2023. La guida definitiva e i consigli su cosa fare, dove andare, cosa mangiare a Budapest e molto altro ancora, firmati da Noah Leo e tradotti da Cipriano Calabresi. Alla pagina dedicata all’autore compaiono diverse guide simili, tutte pubblicate negli stessi giorni di maggio 2023: le poche che hanno ricevuto una recensione hanno spesso voti molto bassi e giudizi critici («Fornisce una breve descrizione delle principali città e poco altro. Mi ha deluso», «sembra una ricerca su Budapest fatta da un bambino delle elementari»).

Un altro autore che ricorre tra i risultati si chiama Ortensio Mazzanti, uno pseudonimo che sembra giocare con il nome di un noto personaggio creato da Paolo Villaggio, la Contessa Serbelloni Mazzanti Vien dal Mare (cercando Ortensio Mazzanti su Google il primo risultato è una pagina LinkedIn a nome Ortensio Mazzanti Vien dal Mare, di lavoro «esteta»). Anche le sue opere hanno titoli molto lunghi e sempre simili (come LISBONA GUIDA DI VIAGGO 2023. La guida definitiva per scoprire tutto ciò che devi sapere come visitatore per la prima volta: splendide visite turistiche, principali attrazioni, gemme nascoste…), oltre ad avere un successo di pubblico e critica simile a quelle di Noah Leo.

In entrambi i casi, questi autori si sono dimostrati capaci di sfruttare l’algoritmo di ricerca posizionando i propri libri in cima ai risultati, nonostante siano poco noti e non particolarmente apprezzati. Non è ovviamente dato sapere con certezza se questi libri siano stati generati da software di intelligenza artificiale: quel che è certo è che quando vengono comperati, la reazione degli acquirenti non pare positiva. Basta leggere le prime righe dell’estratto fornito da Amazon della guida a Budapest, del resto, per trovare errori piuttosto gravi, forse imputabili alla traduzione, come quando l’autore si riferisce alla città di Budapest al maschile («Situato nella regione di Pest del paese, è situato sulle rive del Danubio ed è noto per la sua ricca storia, attrazioni culturali e splendida architettura»).

Per arrivare ai prodotti della casa editrice Lonely Planet, che pubblica le guide turistiche più note e diffuse al mondo, bisogna spesso arrivare alla seconda pagina dei risultati.

In alcuni casi questi libri sono attribuiti ad autori e autrici realmente esistenti, senza che loro lo sappiano. Lo scorso agosto la scrittrice Jane Friedman ha denunciato la presenza di «libri spazzatura» che la indicavano come autrice, sia su Amazon che su Goodreads, un social network dedicato ai libri e alla lettura (di proprietà della stessa Amazon dal 2013). In molti casi si trattava di guide che insegnavano a promuovere le proprie opere proprio su Amazon, a conferma dell’interesse economico che alcuni hanno nel produrre libri a bassissimo prezzo per poi promuoverli sul sito. Dopo la pubblicazione del post dell’autrice, i libri sono stati rimossi sia da Amazon che da Goodreads. Anche in questo caso, avevano titoli molto lunghi e descrittivi, pensati per contenere il più alto numero di parole chiave. L’obiettivo sembra essere lo sfruttamento dell’algoritmo di ricerca per posizionarsi tra i primi risultati (un insieme di tecniche detto Search engine optimization, o SEO).

La diffusione di questo tipo di libri può avere conseguenze anche pericolose, come dimostra la denuncia di un’associazione di micologi di New York, che ha segnalato la presenza di guide per la raccolta di funghi generate dalle intelligenze artificiali che contengono informazioni insensate, e potenzialmente letali. Il sito 404 Media ha tentato di verificare l’origine di questi manuali utilizzando un servizio chiamato ZeroGPT, in grado di rivelare se un testo è stato generato dalle intelligenze artificiali. Secondo i loro test, la voce dedicata ai funghi allucinogeni avrebbe una probabilità del 94% di essere stata generata artificialmente; altri brani raggiungono il 100% di probabilità.

Nelle scorse settimane Amazon ha presentato nuove regole per affrontare questo problema, fissando un limite di opere che un autore può pubblicare in un giorno (il massimo è di tre in un giorno, ma l’azienda si riserva di cambiarlo «se necessario»). A inizio settembre, l’azienda ha anche imposto agli autori l’obbligo di segnalare se un libro è stato generato da un software, creando due nuove categorie di contenuti: quelli «generati dalle IA» e quelli «assistiti dalle IA». Quest’ultima include tutte quelle opere in cui sistemi di intelligenza artificiale sono stati usati per «editare, rifinire, effettuare il controllo grammaticale o altrimenti migliorare» il testo scritto da un essere umano. Queste nuove regole non hanno valore retroattivo e riguardano solo i libri pubblicati con KDP dopo l’aggiornamento normativo: non valgono quindi per tutti quelli pubblicati prima dello scorso settembre.

La risposta di Amazon non ha convinto le associazioni di scrittori e editori, che sostengono che l’azienda possa fare di più per debellare il fenomeno. Come ha spiegato Wired, infatti, servizi come ZeroGPT da tempo collaborano con aziende proprio per individuare i contenuti – scritti ma anche visivi – generati dalle intelligenze artificiali. Chi lavora in questo campo sostiene quindi che Amazon non voglia applicare tecnologie simili, che sarebbero in grado di risolvere alla radice il problema.

Il rilevamento e l’individuazione di contenuti sintetici è però un settore ancora viziato da errori e limiti tecnici che causano falsi positivi: in molti casi, questi sistemi etichettano come generati da software anche testi scritti dagli umani. Secondo uno studio effettuato dalla University of Maryland, «questi rivelatori non sarebbero affidabili negli scenari pratici», come dimostrato anche da una ricerca di Stanford che ha rivelato simili criticità (che tendono a sfavorire gli autori che non sono nativi di lingua inglese, ad esempio). La stessa OpenAI, a luglio, ha dovuto ammettere che il software che aveva progettato per riconoscere i contenuti scritti da ChatGPT e chatbot simili aveva un «basso livello di precisione», per poi ritirarlo.