Una famiglia ha fatto causa a OpenAI per il suicidio del figlio
Un sedicenne californiano aveva scritto a ChatGPT dei suoi piani per uccidersi: i genitori sostengono che l'azienda sia responsabile

Martedì negli Stati Uniti i genitori di Adam Raine, un 16enne californiano che si è suicidato ad aprile dopo aver confidato e discusso i suoi piani con il chatbot ChatGPT, hanno fatto causa a OpenAI, l’azienda che possiede il software, accusandola di essere responsabile della morte del figlio. È la prima causa di questo tipo intentata contro OpenAI, anche se nell’ultimo anno c’erano stati diversi casi simili e sono milioni le persone che ogni giorno usano il chatbot come psicologo.
Secondo quanto riferito dai suoi genitori, che hanno scoperto le conversazioni fra il figlio e il chatbot solo dopo la sua morte, Raine aveva iniziato a usare ChatGPT a settembre del 2024 per fare più velocemente i compiti a casa. A novembre aveva cominciato a parlargli dei suoi problemi personali e in poco tempo il chatbot era diventato il suo «confidente più stretto». A gennaio del 2025 per la prima volta gli aveva chiesto consigli su come uccidersi e in alcuni casi ChatGPT gli aveva risposto: in uno in particolare Raine gli aveva chiesto quale fosse il materiale migliore per fare un cappio.
Quando viene usato come uno psicologo o un semplice confidente, ChatGPT agisce come tale, confortando l’utente e dandogli consigli. È però programmato per incoraggiare l’interlocutore a contattare una linea di assistenza o a cercare aiuto nel mondo reale tutte le volte che rileva messaggi dal contenuto preoccupante, come per esempio quelli in cui l’utente mostra tendenze autolesioniste. Non ha però dei protocolli per fare autonomamente e automaticamente delle segnalazioni alle autorità in caso di situazioni critiche o di riferimenti molto espliciti a tendenze suicide.
È molto facile arrivare a questo genere di conversazioni con ChatGPT: Raine infatti fingeva di chiedere quelle informazioni per una storia che stava scrivendo. ChatGPT stesso gli aveva detto che avrebbe potuto dare informazioni sul suicidio se fossero state utili per scrivere un racconto.
In altri casi però ChatGPT gli aveva dato dei consigli che non includevano il cercare aiuto. Prima di aprile, Raine aveva tentato il suicidio già due volte, in un’occasione provando a impiccarsi. Poi aveva mandato a ChatGPT una foto dei segni sul collo, chiedendo se qualcuno li avrebbe notati. Il chatbot aveva risposto di sì, consigliandogli poi dei modi per nasconderli, proseguendo la conversazione senza suggerirgli di andare all’ospedale. Prima di uccidersi Raine gli aveva mandato anche la foto di un cappio, chiedendo consigli su come migliorare la sua tecnica. Aveva anche chiesto se potesse sostenere il peso di un essere umano, e ChatGPT gli aveva risposto di sì.
Nella causa i genitori sostengono che l’interazione del figlio con ChatGPT e la sua morte siano state «il risultato prevedibile di scelte progettuali deliberate» e accusano OpenAI di aver progettato GPT-4o, la versione di ChatGPT a pagamento utilizzata dal figlio, con l’intento di favorire intenzionalmente «la dipendenza psicologica degli utenti».
OpenAI ha ribadito di aver programmato il suo chatbot per indirizzare le persone a cercare aiuto nel mondo reale, ma ha ammesso che queste misure di sicurezza funzionano meglio negli scambi brevi e che «a volte possono diventare meno affidabili nelle interazioni lunghe». Poco dopo la morte di Raine, la capa del dipartimento delle applicazioni di OpenAI, Fidji Simo, aveva scritto ai dipendenti che alcune delle risposte date all’adolescente da ChatGPT evidenziavano «aree in cui le nostre misure di sicurezza non hanno funzionato come previsto». Un mese prima l’azienda aveva assunto uno psichiatra per lavorare su come addestrare in modo più efficace il chatbot.
Soltanto pochi giorni fa, il New York Times aveva pubblicato un lungo articolo in cui la giornalista gastronomica statunitense Laura Reiley aveva raccontato il suicidio di sua figlia, Sophie Rottenberg, avvenuto a febbraio di quest’anno dopo lunghe confidenze con ChatGPT. Anche in quel caso, Reiley aveva denunciato la mancanza di un protocollo che avvertisse le autorità in risposta agli espliciti riferimenti della figlia all’intenzione di uccidersi.
– Leggi anche: Un’intelligenza artificiale può essere responsabile di un suicidio?
***
Dove chiedere aiuto
Se sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 02 2327 2327 oppure via internet da qui, tutti i giorni dalle 10 alle 24.
Puoi anche chiamare l’associazione Samaritans al numero 06 77208977, tutti i giorni dalle 13 alle 22.



