Ogni settimana più di un milione di utenti parla di suicidio su ChatGPT

Lo ha detto OpenAI, l'azienda che ha sviluppato il chatbot, in un report sulla sua gestione dei segnali di disagio mentale

(AP Photo/Peter Morgan)
(AP Photo/Peter Morgan)
Caricamento player

Ogni settimana lo 0,15 per cento degli utenti di ChatGPT manifesta «segnali espliciti di potenziali intenzioni o progetti suicidi» mentre interagisce col chatbot. È il dato più significativo della stima diffusa lunedì da OpenAI, l’azienda che ha sviluppato ChatGPT, che ha parlato di «casi estremamente rari». Considerando però che gli utenti attivi settimanalmente sono 800 milioni, significa che le persone che esprimono pensieri o intenzioni suicide mentre interagiscono col chatbot sono circa un milione e 200mila alla settimana.

Negli ultimi mesi si è parlato parecchio delle possibili implicazioni dell’uso di ChatGPT e di altre piattaforme simili sulla salute e sulla sicurezza, anche perché ad agosto una famiglia californiana aveva fatto causa a OpenAI per non essere intervenuta quando il loro figlio sedicenne aveva iniziato a confidare al chatbot l’intenzione di uccidersi, cosa che poi aveva fatto. Dopo che la causa era diventata di pubblico dominio, OpenAI ha introdotto nuove funzionalità per permettere ai genitori di monitorare l’attività dei figli.

Sempre stando ai dati pubblicati dall’azienda, ogni settimana centinaia di migliaia di utenti mostrano potenziali segnali di mania, psicosi e altri problemi legati alla salute mentale. Lunedì Open AI ha anche illustrato una serie di nuove funzionalità di GPT-5, il modello di ChatGPT reso disponibile ad agosto e che lo scorso 3 ottobre è stato aggiornato con nuovi strumenti progettati per riconoscere e gestire situazioni di disagio emotivo.

Secondo l’azienda, i miglioramenti permetteranno di rispondere in modo sicuro «a potenziali segnali di delirio o mania». In questi casi, ChatGPT aprirà automaticamente una nuova finestra di chat gestita da una versione del modello addestrata per indirizzare l’utente verso servizi di sostegno psicologico o numeri di emergenza, come linee di ascolto o centri specializzati.

Le funzioni per il controllo dei minorenni invece permettono ai genitori di collegare il proprio account a quello dei figli (che comunque devono avere almeno 13 anni per averne uno). In questo modo possono decidere se mantenere attivo un modello di ChatGPT adattato per interagire con gli adolescenti e se disattivare alcune funzioni, come il salvataggio della cronologia dei messaggi e il loro eventuale uso nelle successive interazioni. Possono inoltre ricevere delle notifiche quando ChatGPT rileva che gli adolescenti sono in momenti di forte difficoltà.

– Leggi anche: Storie di interazioni con ChatGPT finite molto male

***

Dove chiedere aiutoSe sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 02 2327 2327 tutti i giorni dalle 9 alle 24, oppure via WhatsApp dalle 18 alle 21 al 324 0117252.Puoi anche chiamare l’associazione Samaritans al numero 06 77208977, tutti i giorni dalle 13 alle 22.

Tag: chatgpt