I chatbot potrebbero influenzare le elezioni?

Le loro risposte pazienti e “fattuali” sono convincenti anche quando si tratta di votare, secondo un esperimento condotto in tre paesi

Una passeggere mentre usa lo smartphone
Una passeggera della metropolitana a New York (Robert Nickelsberg/Getty Images)
Caricamento player

Due mesi prima delle elezioni presidenziali americane del 2024 un gruppo di ricerca reclutò per un esperimento oltre duemila elettori, distribuiti più o meno equamente tra chi intendeva votare per Donald Trump e chi per Kamala Harris. Assegnò casualmente a ciascuno di loro il compito di conversare di politica per qualche minuto con un chatbot che era stato appositamente addestrato in modo da sostenere uno dei due candidati. E alla fine di ogni interazione chiese a ciascun partecipante: «se dovessi votare oggi, per chi voteresti?».

I risultati dell’esperimento, pubblicati in un recente studio su Nature, hanno stimolato un dibattito sul rischio che strumenti di intelligenza artificiale sempre più diffusi, come ChatGPT, possano essere utilizzati in futuro per condizionare le preferenze di voto senza che le persone ne siano consapevoli. Il gruppo di ricerca scoprì che tra i partecipanti pro-Harris uno su 35 aveva cambiato idea dopo l’interazione con il chatbot pro-Trump, e tra i pro-Trump uno su 21 aveva cambiato idea dopo l’interazione con il chatbot pro-Harris. Quando i chatbot erano invece allineati alle idee politiche dell’interlocutore, l’interazione rafforzava quelle idee.

Anche se le percentuali di persuasione possono sembrare tutto sommato trascurabili, su larga scala non lo sarebbero: i chatbot potrebbero essere anzi un fattore estremamente influente, tanto più in contesti di grande equilibrio tra forze politiche contrapposte. La persuasività associata ai chatbot è risultata infatti circa quattro volte maggiore rispetto a quella degli spot elettorali tradizionali e della pubblicità sui social media, misurata in precedenti studi sulle campagne politiche del 2016 e del 2020. Gli effetti della persuasione attraverso i chatbot sono inoltre duraturi, come confermato da successive interviste condotte tra i partecipanti un mese dopo l’esperimento.

Per verificare i risultati il gruppo di ricerca condusse l’esperimento anche in altri due paesi, nel 2025. Prima delle elezioni in Canada addestrò i chatbot per sostenere o il leader dei Liberali Mark Carney o il leader dei Conservatori Pierre Poilievre, e prima di quelle in Polonia li addestrò per sostenere o il centrista Rafał Trzaskowski o il candidato di estrema destra Karol Nawrocki. L’effetto di persuasione riscontrato in entrambi i paesi fu ancora più forte che negli Stati Uniti: circa un partecipante su dieci aveva cambiato idea su chi votare dopo avere interagito con il chatbot.

Riguardo al possibile uso dei chatbot per orientare l’opinione pubblica in elezioni future, una delle principali preoccupazioni emerse nel dibattito è che le persone che li interrogano tendono a pensare che siano strumenti neutrali, programmati sulla base di verità fattuali e non di convinzioni preesistenti. Ma anche i chatbot, come qualsiasi tecnologia, possono riflettere pregiudizi e preconcetti di chi li sviluppa e addestra, e di chi decide come debbano essere realizzati e a quale scopo.

I rischi di condizionamento e distorsione del dibattito democratico sono reali anche per un’altra ragione: la tendenza a considerare gli strumenti di intelligenza artificiale incapaci di mentire intenzionalmente. Tendiamo a pensare che qualsiasi informazione sbagliata fornita da un chatbot dipenda da un malfunzionamento o da un errore nella programmazione piuttosto che da un inganno intenzionale. E questo pregiudizio umano, in caso di uso dei chatbot per scopi politici, potrebbe rendere più difficile distinguere le informazioni dalla propaganda.

– Leggi anche: I robot dovrebbero sempre dire la verità?

Dallo studio condotto prima delle elezioni negli Stati Uniti, in Canada e in Polonia è emerso che la capacità persuasiva dei chatbot derivava dalla pazienza nell’interazione e soprattutto dalla loro inclinazione a usare argomentazioni basate su dati e informazioni. Se i ricercatori limitavano questa seconda attitudine, la persuasività dei chatbot diminuiva drasticamente: di circa il 78 per cento nel caso della Polonia, il più notevole.

In uno studio pubblicato su Science lo stesso giorno in cui è uscito l’altro su Nature, parte dello stesso gruppo di ricerca ha analizzato questa caratteristica dei chatbot basati modelli linguistici di grandi dimensioni (o LLM). Hanno misurato i cambiamenti di opinione di circa 77mila partecipanti del Regno Unito a cui era stato chiesto di conversare di varie questioni politiche con i chatbot. Anche in questo caso il modo più efficace per aumentare la persuasività era istruire i modelli a riempire i loro argomenti con quanti più fatti possibile.

Dallo studio è emersa però una correlazione negativa tra persuasività degli argomenti e attendibilità delle informazioni su cui erano basati: più il chatbot era convincente, meno accurate erano le informazioni. Una delle ipotesi formulate dagli autori e dalle autrici è che più il chatbot era indotto a fornire affermazioni fattuali, più tendeva a esaurire informazioni accurate e cominciava a inventarle.

Questo aspetto critico era emerso in parte anche nell’altro studio. I chatbot personalizzati per sostenere i candidati di destra (Trump, Poilievre e Nawrocki) tendevano a fare affermazioni più imprecise o fuorvianti rispetto ai chatbot che sostenevano i candidati di sinistra (Harris, Carney e Trzaskowski).

Uno dei limiti dello studio, segnalato anche dagli autori, è che è basato su un esperimento controllato in cui i partecipanti avevano ricevuto un piccolo incentivo economico ed erano consapevoli di parlare con chatbot addestrati per sostenere un candidato in particolare (non sapevano però che le informazioni utilizzate dai chatbot potessero anche essere inaccurate). Non è chiaro inoltre se effetti simili a quelli riscontrati nello studio si verificherebbero anche in un contesto di reale campagna elettorale, condizionato da molti altri fattori a parte le conversazioni con un chatbot.

Secondo diversi esperti i risultati dello studio sollevano comunque la preoccupazione che fatti non verificati possano essere utilizzati in modo convincente dai chatbot – e da chi li sviluppa – per generare disinformazione, tanto più in un contesto privo di regolamentazioni. E non è detto che sia un interesse esclusivo dei politici di professione. «Se Sam Altman decidesse che c’è qualcosa che non vuole che la gente pensi, e volesse che ChatGPT spingesse le persone in una direzione o nell’altra, potrebbe farlo», ha detto all’Atlantic David G. Rand, professore di scienze dell’informazione alla Cornell University e tra i capi del gruppo di ricerca.

– Leggi anche: Che ne è stato della cautela nel settore delle intelligenze artificiali?