Le intelligenze artificiali vanno in guerra

Sono già usate da molti eserciti, tra opportunità, rischi e dilemmi etici

di Emanuele Menietti, Beatrice Mautino
episode
00:00:00
00:00:00
00:00:00

La società statunitense Anthropic, famosa per il suo chatbot Claude, ha ripreso le trattative con il dipartimento della Difesa degli Stati Uniti, dopo che aveva rifiutato che i suoi sistemi di intelligenza artificiale fossero usati per alcune attività militari ad alto rischio. Le AI sono ormai ovunque e non stupisce che siano usate anche dagli eserciti, ma il loro impiego pone non pochi problemi etici, morali e tecnologici. Alla base hanno scoperte scientifiche che potrebbero cambiare il mondo, ma con quali conseguenze? Ci occupiamo poi dei particolari rapporti di Jeffrey Epstein con la scienza e del gas che arriva dal Qatar, in tempo di guerra.

Leggi anche

Istruzioni, un nuovo progetto del Post – Amedeo Balbi e l’Universo Dentro la disputa tra Anthropic e il Pentagono sul “robot killer” Lo strumento di intelligenza artificiale Claude di Anthropic è al centro della campagna statunitense in Iran, in mezzo a una dura lotta Il Pentagono ha utilizzato la tecnologia Anthropic nel raid contro Maduro in Venezuela Le tensioni fra Anthropic e il Pentagono meritano qualche riflessione OpenAI ha modificato il contratto con il Pentagono per assicurarsi che i suoi software non siano usati per sorvegliare i cittadiniAnthropic ha ripreso le trattative con il Pentagono per l’uso dei suoi sistemi di AI per scopi militari I campioni di tessuto di Jeffrey Epstein hanno scatenato il putiferio nel laboratorio di Harvard di George ChurchFinanziamenti da donatori individuali: lezioni dal caso Epstein La guerra in Medio Oriente è un grosso problema anche per l’energia