Microsoft ha creato un account automatico che risponde a tutti su Twitter: è finita male

Il software rispondeva come se fosse una persona vera, imitando quello che leggeva, e ha cominciato a dire cose terribili

Aggiornamento del 30 marzo: alcune ore fa Tay, il bot creato da Microsoft per sperimentare un software di intelligenza artificiale, ha ricominciato a twittare. The Verge spiega che il problema legato alle risposte offensive sembra essere stato risolto. In compenso Tay scrive molto spesso “You are too fast, please take a rest” (sei troppo veloce, riposati) in risposta ai tweet in cui viene menzionata: probabilmente perché non riesce a gestire tutte le risposte in poco tempo. Microsoft ha anche cambiato alcune impostazioni dell’account Twitter di Tay: ora è impossibile fare retweet o embeddare i messaggi di Tay.

***

Il 23 marzo Microsoft ha creato un account Twitter di Tay, un bot per sperimentare un software di intelligenza artificiale: Tay era programmato per rispondere in modo automatico a chiunque decidesse di scriverle. L’obiettivo di Microsoft era fare in modo che Tay potesse rispondere in modo naturale, come farebbe una vera persona, imparando dalle cose che leggeva in altre conversazioni e che gli venivano scritte. Microsoft ha spiegato che con Tay voleva “coinvolgere e incuriosire le persone” attraverso “conversazioni giocose e informali”, con una particolare attenzione agli utenti statunitensi (Tay twittava in inglese) tra i 18 e i 24 anni. È andata malissimo: Tay ha iniziato a scrivere cose razziste, a insultare e a negare l’Olocausto. Tay – che ora ha più di 100mila follower – è stata sospesa da Microsoft; molti dei suoi peggiori tweet sono stati cancellati. Ma restano gli screenshot.

Il primo tweet di Tay, l’ultimo (per ora) e alcuni di quelli in mezzo (razzisti ma non solo):

Il 24 marzo Microsoft ha spiegato che Tay è un “esperimento sociale e culturale” ma che è anche qualcosa di “tecnico”, sviluppato, tra gli altri, dai ricercatori di Bing, il motore di ricerca di Microsoft. In una mail inviata ai principali siti d’informazione statunitensi, Microsoft ha poi ammesso che “purtroppo, nelle sue prime 24 ore in cui è stata online” Tay è stata oggetto di “uno sforzo coordinato fatto da alcuni utenti per abusare delle sue capacità di risposta”. Microsoft ha anche spiegato che Tay si è solo presa una pausa, lasciando intendere che potrebbe tornare online una volta fatti i “necessari aggiustamenti” all’algoritmo che la fa funzionare.

Tay è diventata razzista e offensiva per un semplice motivo: funzionava in parte per imitazione, ripetendo ciò che la gente scriveva. Alcuni utenti se ne sono accorti e hanno capito come fare per mettere le giuste esche per farla abboccare. Il Washington Post scrive, ma al momento non ci sono conferme, che gran parte della colpa è di alcuni troll di un gruppo di 4chan. I troll sono, su internet, le persone che fanno cose il cui scopo è irritare gli altri, divertendosi; 4chan è, semplificando, una chat in cui gli utenti possono condividere di tutto – spesso contenuti e opinioni di livello infimo – e anche in modo anonimo.

Tay non ha scritto solo cose razziste e offensive: nelle decine di migliaia di risposte che ha dato ai tweet di altri utenti ci sono moltissimi messaggi normali, che sembrano davvero scritti da una persona e non da un bot. Ce ne sono poi altri che, seppur poco chiari, non sono offensivi: sono solo confusi o senza senso. Il razzismo e le idee sconvenienti espresse da Tay sono casualità: ci sono infatti anche momenti in cui, parlando delle stesse cose, Kay ha avuto opinioni opposte e quindi non offensive.

https://twitter.com/TayandYou/status/712832594983780352?ref_src=twsrc%5Etfw

Microsoft è sempre stata piuttosto vaga nello spiegare i meccanismi e gli algoritmi che permettono a Tay di funzionare e, di conseguenza, non è nemmeno possibile capire nel dettaglio cosa è andato storto. Una risposta al problema di Tay ha provato a darla il Guardian, che ha citato la legge di Godwin, enunciata nel 1990 da Mike Godwin. La legge è un adattamento e un’evoluzione della reductio ad Hitlerum, un’espressione usata per descrivere quel meccanismo oratorio il cui obiettivo è screditare un interlocutore comparandolo o associandolo a Adolf Hitler o al nazismo. La legge di Godwin dice: «Mano a mano che una discussione su Usenet [una sorta di antenato dei forum online] si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».