Un’orda di inconsapevoli chat bot

Qual è la differenza tra l’infaticabile Donald Trump e il chat bot Tay che la Microsoft ha appena eutanasizzato perché nel giro di poche ore e qualche centinaia di tweet e chat s’era trasformata in una razzista antisemita che neanche i nazisti dell’Illinois…? (Io li odio i nazisti dell’Illinois).

All’apparenza sembrerebbero fenomeni simili. Entrambi vengono ispirati e nutriti dal proprio seguito. Ma la differenza è quella tra una teenager ancora un po’ ingenua che s’avventura nel mondo dei grandi (Tay, la ragazza-software che doveva chattare come un’umana) e un vecchio volpone sulla soglia dei 70 anni che ne ha viste e fatte di tutti i colori (con una prevalenza per la sfumatura arancione che ne pervade il colorito e la tinta dei capelli).

trump tay

La somiglianza è che entrambi Trump e Tay sono spinti e in una certa misura “informati” dai propri interlocutori e seguaci. Per scivolare nella fisica quantistica, non solo l’osservatore cambia ciò che osserva, ma viceversa, l’osservato cambia l’osservatore. Il troller cambia il trollato, come anche il trumpiano cambia il Trump, spingendolo oltre il proprio innato razzismo e antisemitismo, più in basso, sempre più in giù, alla ricerca di consensi, followers, friends e, cosa ben più importante per la realtà mondiale, alla conquista di più troll-elettori, i Trumpiani.

Lasciamo Trump a sputacchiare dal suo podio reale o virtuale contro i messicani, gli stranieri, i neri, i cinesi e il Papa per raccogliere consensi e concentriamoci sulla povera Tay (R.I.P.) per capire cos’è successo. Non dovrebbe essere difficile comprendere come mai sia stato scelto l’avatar di una ragazza per invitare followers a dialogare con lei. Ricordate l’estetizzante “Ex Machina,” con la stupenda Alicia Vikander nel ruolo di una donna-robot che deve riuscire a superare il test di Turing, ovvero a imbrogliare un umano e fargli credere che è una donna vera? È l’incarnazione di Siri, la voce suadente che in teoria dovrebbe aiutarvi, chiacchierando con voi dal vostro iPhone. Quanti di voi, come mio figlio e i suoi amici, passano il tempo a insultarla quando non capisce e non fa quello che le chiedete? C’è da riderci sopra. A mio figlio ho spiegato però che non è un buon addestramento al dialogo con una giovane donna. L’osservato (Siri) cambia l’osservatore (l’utente di iPhone che si scatena in turpiloqui che crede innocui, poiché insulta un oggetto inanimato, ma che in realtà rappresenta una donna, per via della voce).

Ed è quello che è accaduto con Tay. A quanto pare, una gang di troll del gruppo 4chan l’avrebbe  presa di mira riempendo il suo account di opinioni razziste, anti-femministe, anti-semite: insomma quanto di più trumpiano ci possa essere, al momento. E Tay che sulle prime era una brava e noiosa politically correct di sinistra, equanime e internazionalista-relativista, piano piano, a forza di dialogare con i troll, s’è messa anche lei a negare l’Olocausto, a dire che il femminismo è un cancro per poi contraddirsi subito. Ed eventualmente ad andare in tilt, come un Hal qualsiasi che perde la strada in una sua Odissea nello Spazio degli umani.

Nel fango appiccicoso della rabbia, il livore e la bile del mondo-trolling, la dolce Tay è stata lentamente e persistentemente convertita. Dimostrando così uno dei punti deboli dell’Artificial Intelligence, che è appunto come formare le nuove intelligenze robotiche.

Difatti, se si crede d’essersi avvicinati a creare un meccanismo imitativo della coscienza, capace d’ assorbire informazioni, digerirle e esprimere poi un concetto basato su questo data-processing, in realtà ci si trova di fronte al solito vecchio muro: quello dell’incapacità di generare artificialmente la consapevolezza.

La coscienza coglie l’oggettività fisica del reale, mentre la consapevolezza trasforma quell’oggettività in sensi e significati. Ed è qui, in questo pezzo mancante, che c’è qualcosa di utile da capire per quanto riguarda la manipolazione dell’informazione in questa fase dello sviluppo tecnologico.

Senza rendercene conto, milioni di persone si stanno trasformando in piccole Tay. Credendo di avere una consapevolezza formata, utilizzano invece quella che, più che altro, è a malapena una coscienza, formata attraverso l’assorbimento di quello stesso humus limaccioso che ha costretto Microsoft a spegnere Tay.

Nutrendosi di odio, pensiero ridotto e non elaborato, scevro da dialogo e ragionamento profondo, si formulano sentenze rapide e superficiali, declinate nei commenti-sfoghi, nei tweet e status update che sembrano condensare la nostra visione del mondo, ma non sono altro che le stesse identiche stupidità da mente limitata che hanno fatto emergere tutti i difetti del chat-bot. Questo è il messaggio del mezzo, per rispolverare l’eterno Marshall McLuhan. Almeno lo è in questa fase.

Il problema vero e attuale è che invece d’avere un chat-bot che diventa più umano, non ci stiamo rendendo conto che abbiamo un’orda di umani che stanno diventando inconsapevoli chat-bot. I quali a breve potrebbero essere guidati da un pifferaio-programmer dalle sfumature arancioni.

Carlo Pizzati

Scrittore, giornalista e docente universitario. Scrive per "Repubblica" e "La Stampa" dall'Asia. Il romanzo più recente è "Una linea lampeggiante all'orizzonte" (Baldini+Castoldi 2022). È stato a lungo inviato da New York, Città del Messico, Buenos Aires, Madrid e Chennai. Già autore di Report con Milena Gabanelli su Rai 3, ha condotto Omnibus su La7. Ha pubblicato dieci opere, tra romanzi, saggi, raccolte di racconti brevi e reportage scritti in italiano e in inglese. carlopizzati.com @carlopizzati - Pagina autore su Facebook - Il saggio più recente è "La Tigre e il Drone" (Marsilio 2020),