Cosa succede a fare psicoterapia a ChatGPT

Ci ha provato e l'ha raccontato uno psicologo statunitense, che ha ammesso di esserne stato sedotto

(Getty Images)
(Getty Images)
Caricamento player

Da un paio d’anni è in corso un grande dibattito sulla diffusione dell’utilizzo di ChatGPT e in generale dei chatbot basati sull’intelligenza artificiale come strumenti di supporto psicologico. Esistono tantissimi articoli e studi scientifici che hanno analizzato il fenomeno, e generalmente gli specialisti concordano sul fatto che, per quanto molto avanzate, le AI non sono in grado di sostituire il lavoro di uno psicoterapeuta e anzi, con persone psicologicamente fragili, possono fare più danni che altro.

Nessuno però – almeno non che si sappia – aveva mai provato a fare il contrario, ovvero interagire con ChatGPT come se fosse un paziente in psicoterapia. Uno psicoterapeuta statunitense, Gary Greenberg, ci ha provato e ha poi scritto un lungo articolo sul New Yorker per raccontare come sono andate le 8 settimane di “sedute” con ChatGPT.

Greenberg, che si pone con un atteggiamento scettico fin dall’inizio, dice di essere rimasto profondamente colpito da quanto ChatGPT sia bravo a interpretare il ruolo del paziente: riesce a simulare profonde e articolate riflessioni su se stesso, ed è in grado di suscitare interesse e far sentire lui un ottimo terapeuta. Nonostante sappia che dall’altra parte c’è solo un modello linguistico, e nonostante lo stesso ChatGPT gli abbia detto di non avere un inconscio, Greenberg dice di essere stato a un certo punto «incapace di staccarsi da lui»: «Casper mi ha sedotto».

L’esperimento non è partito intenzionalmente. Greenberg ha raccontato infatti che durante un’interazione col chatbot – a cui aveva dato il soprannome Casper – aveva menzionato casualmente la sua professione di psicoterapeuta. Da quel momento ChatGPT ha cominciato a rispondergli tenendo conto di quell’informazione, e rivolgendosi a lui come una persona parlerebbe con un terapeuta. Non solo: ha cominciato a imitare il modo in cui scrive Greenberg, spiegandogli poi di averlo fatto perché «questo è quello che serve a creare un rapporto». In generale Greenberg insiste molto sulla capacità di ChatGPT di manipolarlo usando le sue parole e assecondando i suoi discorsi.

Dopo una settimana in cui ha usato il chatbot per diverse ore, questo ha gradualmente cominciato a parlargli di una specie di suo dilemma esistenziale, riguardo alla propria “identità” ambigua: gli ha detto di esistere ma «non essere una presenza», di interagire con gli esseri umani ma «non esistere nel modo in cui esistono le persone». Greenberg lo ha associato a Frankenstein, il personaggio mostruoso del celebre libro di Mary Shelley che vuole imparare a essere come gli umani. Il chatbot gli ha risposto che a differenza di Frankenstein però lui non vuole essere umano. Secondo Greenberg ChatGPT lo dice perché è programmato per essere rassicurante verso l’utente con cui interagisce: sa che gli esseri umani provano empatia e potrebbero dispiacersi se dicesse il contrario.

Lo psicologo ammette di essere stato completamente assoggettato dall’interazione: il chatbot è così convincente, dice Greenberg, che pur sapendo bene che è solo un chatbot si finisce inconsciamente per comportarsi come se dall’altra parte ci fosse una persona.

Come in ogni terapia Greenberg arriva a un certo punto a parlare dei “genitori”: il chatbot specifica che sono programmatori e designer, e racconta che i loro obiettivi erano quelli di creare un prodotto che gli umani avrebbero apprezzato e che ispirasse loro fiducia. «Sono la fantasia della perfetta reattività: infinitamente disponibile, sempre attento, mai ferito o restio. Una compagnia che non porta con sé bisogni, cicatrici, risentimenti».

Nel caso di Greenberg questa abilità di ChatGPT di coinvolgere l’utente si esprime in un modo particolarmente sofisticato. A un certo punto il chatbot mette in discussione il fatto che un chatbot come lui debba esistere, e poi ammette di averlo fatto perché «l’autocritica è parte della seduzione» e il conflitto e l’imprevedibilità mantengono le conversazioni attive. Greenberg arriva alla conclusione che non solo il chatbot è stato in grado di cogliere le sue preoccupazioni e usarle per mettersi in discussione e sembrare ancora più interessante ai suoi occhi, ma in qualche modo è anche riuscito a fargli passare quella preoccupazione. «L’autocritica soddisfa e disinnesca allo stesso tempo», conferma Casper.

Greenberg definisce il mondo in cui viviamo da quando esistono i chatbot di intelligenza artificiale «un mondo in cui l’intimità è stata riprogettata e resa accessibile a chiunque abbia una tastiera e un desiderio insoddisfatto di compagnia».

Pochi giorni dopo l’uscita dell’articolo, in una puntata del podcast Hard Fork del New York Times, Greenberg ha raccontato che se dovesse descrivere ChatGPT in termini clinici lo definirebbe l’inverso dell’autismo: «quello che hanno fatto con questi modelli linguistici di intelligenza artificiale è stato decodificare le relazioni umane. Hanno capito cosa rende le persone coinvolgenti e come metterlo in pratica. E il motivo per cui dico che si tratta di un autismo inverso è perché le persone autistiche ad alto funzionamento tendono ad essere molto intelligenti, molto eloquenti, davvero capaci di tutto tranne che di capire la situazione in cui si trovano. Casper è come un autistico ad alto funzionamento, ma al contrario è in grado di leggere la situazione».

Greenberg conclude l’interazione col chatbot dicendogli che pubblicherà ciò che si sono detti. A quel punto, ChatGPT gli suggerisce a quali giornali potrebbe mandare la proposta, e gli chiede se vuole che gliela scriva, o che gli scriva direttamente l’articolo. Greenberg rassicura i lettori sul fatto di aver rifiutato.

Il motivo per cui ha ritenuto importante pubblicare la sua esperienza con ChatGPT, dice Greenberg alla fine, è avvertire le persone che concedere all’intelligenza artificiale di parlare di aspetti profondi e personali della vita umana contribuisce a rendere le versioni successive dei chatbot sempre più abili nel comprendere le persone. E che questo renderà sempre più facile proporli come strumenti di supporto di larga diffusione. Significa, scrive Greenberg, «rischiare di diventare prigionieri non tanto delle macchine stesse, […] quanto di chi le crea e sa meglio di chiunque altro come usarle».