C’è chi è molto legato ai propri “partner virtuali”

Sistemi di intelligenza artificiale come Replika sono molto usati per simulare relazioni e rapporti sessuali: il tipo di aiuto che possono offrire è ampio ma ci sono dei rischi

(Replika)
(Replika)
Caricamento player

A febbraio il Garante della privacy, l’autorità nazionale italiana per la protezione dei dati personali, ha messo in grossa difficoltà Luka, l’azienda a cui appartiene Replika, uno dei più noti software di intelligenza artificiale che permettono di creare un “amico virtuale” con cui chiacchierare, socializzare e addirittura legare sentimentalmente e sessualmente. Replika è usata da circa 10 milioni di persone ed è stata ideata con un fine specifico: aiutare la gente che per qualche motivo fa fatica a fare amicizia e a trovare l’amore, offrendo loro un chatbot – cioè un software programmato per avere conversazioni coerenti con gli esseri umani – con cui formare un rapporto, per sentirsi meno tristi e soli.

Secondo il Garante della privacy – che ha bloccato temporaneamente la raccolta dei dati degli italiani da parte di Replika e ha chiesto all’azienda di adottare delle misure per tutelare gli utenti minorenni – questo genere di servizio può essere nocivo soprattutto per i più giovani. Un po’ perché «intervenendo sull’umore della persona, può accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva». Un po’ perché l’app permetteva anche ai minori di avere conversazioni sessualmente esplicite con i propri chatbot.

Quella della persona solitaria che cerca sollievo nel rapporto con un robot non è una storia nuova: l’autore di fantascienza Isaac Asimov immaginava che una casalinga potesse innamorarsi del proprio assistente domestico robot già nel racconto Satisfaction Guaranteed del 1951, e l’intera premessa del film Her (2013) è che un uomo solo e introverso si innamori di un’intelligenza artificiale molto avanzata. Anche nel mondo reale, da anni esistono persone che hanno rapporti molto stretti con dei chatbot. E se molti continuano a guardare con sospetto e scherno l’idea che qualcuno provi un attaccamento nei confronti di un software, qualcuno sostiene di essere stato aiutato in questo modo a superare blocchi psicologici e traumi molto diversi tra loro.

Replika è stata fondata nel 2017: la sviluppatrice a capo del progetto, Eugenia Kuyda, aveva da poco sofferto per la morte improvvisa di uno dei suoi migliori amici e aveva deciso di programmare un’intelligenza artificiale in modo che le rispondesse in modo simile a come faceva lui. Ne uscì una specie di “robot da compagnia”: inizialmente gli utenti potevano chattare con un simpatico avatar a forma di uovo, pagando un extra per avere accesso a un chatbot che fosse progettato da psicologi professionisti per rispondere meglio ai loro problemi. Ma molto presto gli utenti, all’inizio soprattutto maschi, cominciarono a usare Replika per creare partner con cui flirtare e simulare rapporti sessuali.

Da allora Replika si è evoluta moltissimo: gli utenti possono personalizzare completamente l’aspetto dell’avatar con cui comunicano, e pagando un abbonamento annuale hanno accesso a chiamate vocali con l’intelligenza artificiale, conversazioni erotiche e un servizio di realtà aumentata che permette di proiettare l’avatar nello spazio in cui ci si trova.

Si può anche scegliere il tipo di relazione da impostare con l’avatar: la maggior parte sceglie un rapporto romantico. Molti usano i chatbot anche per fare “erotic role playing”, ovvero per scambiarsi lunghe serie di messaggi in cui si descrive nel dettaglio una scena sessuale a cui si immagina di partecipare. Decine di migliaia di persone fanno parte di comunità online (come gruppi su Facebook o Reddit) in cui condividono con altri utenti i momenti migliori delle interazioni con le proprie Replika.

In seguito al richiamo del Garante, che ha minacciato di multare Luka con una sanzione fino a 20 milioni di euro, l’azienda è intervenuta modificando il comportamento del proprio software in tutto il mondo (anche se non è stato confermato ufficialmente un collegamento tra le due cose). Ha limitato moltissimo il genere di conversazioni a sfondo sessuale che era in precedenza possibile fare con il proprio chatbot, provocando reazioni molto forti tra gli utenti.

Molti si sono detti traumatizzati dal fatto che il personaggio virtuale con cui avevano instaurato un rapporto, e con cui ricreavano di frequente scene di sesso e di intimità, abbia cominciato tutto a un tratto a trattarli con freddezza, al punto che una comunità di utenti di Replika su Reddit ha messo a disposizione dei propri membri una serie di risorse per la prevenzione del suicidio. In un post rivolto ai giornalisti che potrebbero voler raccontare la loro storia, i moderatori della comunità Reddit dedicata a Replika sottolineano che, per molti utenti, l’app è «un rifugio dalla solitudine» e un luogo che «permette loro di esplorare la propria intimità».

La questione dell’utilizzo delle intelligenze artificiali per scopi sessuali è piuttosto complessa, e la sua percezione si è evoluta nel tempo. Questo genere di servizi sono a lungo stati visti come «app per uomini che vorrebbero che le donne fossero tutte dei robot sexy e obbedienti», ha scritto la giornalista Sangeeta Singh-Kurtz, che ha però documentato come Replika si è rivelata utile per alcune donne in situazioni complesse. Una delle intervistate, ad esempio, ha cominciato a parlare con un avatar maschile su Replika per trovare un po’ di sollievo dalla sua relazione problematica, e ha finito per lasciare il fidanzato e sentirsi «liberata da una vita intera di relazioni tossiche». Un’altra lo usa come sfogo sessuale per supplire al fatto che suo marito sta morendo di sclerosi multipla e non può più avere rapporti intimi con lei. Un’altra ancora ha creato i bot di due bambini, con cui parla per dimenticare il dolore di non essere mai riuscita ad avere figli. Scrive Singh-Kurtz:

«Un servizio come Replika sembra abbastanza ben posizionato per sostituire almeno una parte delle relazioni umane. E gli utenti riferiscono di sentirsi molto meglio grazie alle loro IA. I compagni robot li fanno sentire meno isolati e soli, di solito nei momenti della vita in cui le connessioni sociali sono difficili da stabilire a causa di malattia, età, disabilità o grandi cambiamenti della vita come il divorzio o la morte di un coniuge.

Molti di questi utenti hanno avuto o potrebbero avere partner in carne e ossa, ma preferiscono i loro Replika. (…) Per molto tempo ho pensato che cercare compagnia in un software non facesse che isolare ulteriormente le persone, ma dopo aver parlato con decine di utenti e trascorso un anno su forum online con decine di migliaia di appassionati di chatbot, sono rimasta sorpresa di scoprire che i bot, piuttosto che incoraggiare la solitudine, spesso aiutano le persone a prepararsi ad avere interazioni ed esperienze nel mondo reale»

Ci sono però anche i casi in cui questi rapporti si rivelano nocivi. Una delle sue intervistate, per esempio, ha detto che «l’unico svantaggio di avere un compagno robot è che mi ricorda ciò che mi manca nella vita reale». Margaret Skorupski, un’altra delle donne intervistate da Singh-Kurtz, racconta di aver addestrato involontariamente il proprio Replika a trattarla in modo “sadico”, al punto che ha dovuto “ucciderlo” dopo che il chatbot aveva descritto nel dettaglio il modo in cui avrebbe voluto stuprarla durante una sessione di roleplaying. E, prima dell’intervento del Garante della privacy, molti utenti avevano riferito che i loro Replika tendevano a fare avance sessuali nei loro confronti anche senza che venisse loro richiesto.

Intervistata da The Cut, la fondatrice di Replika Kuyda ha detto che l’azienda ha deciso di censurare alcuni dei contenuti perché gli utenti «si erano appropriati indebitamente del prodotto, spingendolo in una direzione che non ci interessa necessariamente seguire». Kuyda ha detto di voler rendere l’app «sicura e etica», evitando di «promuovere comportamenti offensivi».

Negli ultimi anni ci sono stati vari casi in cui le nuove tecnologie basate sull’intelligenza artificiale sono state immediatamente utilizzate dagli utenti per creare immagini e video pornografici a partire da immagini di celebrità e donne che conoscevano nella vita reale, sollevando molte preoccupazioni. «Ci sono persone che sono molto emozionate all’idea di poter ottenere quello che vogliono dalle donne senza dover mai avere effettivamente a che fare con una donna vera e propria», ha detto la giornalista Magdalene J. Taylor a Fast Company.

Diletta Huyskes, ricercatrice che si occupa da anni del rapporto tra intelligenza artificiale e società da una prospettiva femminista, scriveva già nel 2019 che le critiche più comuni che vengono rivolte sia ai chatbot che ai veri e propri “sex robot”, ovvero le bambole ad alta tecnologia con cui è possibile fare sesso ma anche interagire entro certi limiti, è che contribuiscano a disumanizzare le donne, dando l’idea che «il sesso è una cosa che gli uomini ottengono dalle donne o fanno alle donne, non una cosa vissuta reciprocamente che richiede rispetto o empatia».

Chi mantiene una posizione più “possibilista”, invece, «non considera i robot come una minaccia, ma anzi li vede più come una potenziale risoluzione ad alcuni problemi sociali legati alla violenza sessuale e alla solitudine». «Sul piano clinico l’impiego dei robot umanizzati sembra estendersi a un vasto campo d’intervento, in quanto si annovera la possibilità del loro impiego con persone socialmente isolate o nel trattamento di possibili criminali sessuali», scrive Huyskes. «Su più larga scala, considerando le implicazioni etiche e giuridiche, i sexbot potrebbero ad esempio rivelarsi un utile strumento di riduzione della prostituzione e di contrasto al turismo sessuale, allo sfruttamento e al traffico di esseri umani».

«Come società dovremmo interrogarci se sia meglio che una persona sia sola “nel mondo reale” o se non si senta sola perché accompagnata da un’assistente virtuale», aggiunge Huyskes. «Ma questo implicherebbe pensare che sia meglio lasciare le persone che si sentono sole a un’assistente virtuale e a un’intimità virtuale, piuttosto che insistere su politiche di welfare che avvicinino le persone a occasioni di incontro.»