Le intelligenze artificiali vanno in guerra
Sono già usate da molti eserciti, tra opportunità, rischi e dilemmi etici

La società statunitense Anthropic, famosa per il suo chatbot Claude, ha ripreso le trattative con il dipartimento della Difesa degli Stati Uniti, dopo che aveva rifiutato che i suoi sistemi di intelligenza artificiale fossero usati per alcune attività militari ad alto rischio. Le AI sono ormai ovunque e non stupisce che siano usate anche dagli eserciti, ma il loro impiego pone non pochi problemi etici, morali e tecnologici. Alla base hanno scoperte scientifiche che potrebbero cambiare il mondo, ma con quali conseguenze? Ci occupiamo poi dei particolari rapporti di Jeffrey Epstein con la scienza e del gas che arriva dal Qatar, in tempo di guerra.
Leggi anche
– Istruzioni, un nuovo progetto del Post – Amedeo Balbi e l’Universo – Dentro la disputa tra Anthropic e il Pentagono sul “robot killer” – Lo strumento di intelligenza artificiale Claude di Anthropic è al centro della campagna statunitense in Iran, in mezzo a una dura lotta – Il Pentagono ha utilizzato la tecnologia Anthropic nel raid contro Maduro in Venezuela – Le tensioni fra Anthropic e il Pentagono meritano qualche riflessione – OpenAI ha modificato il contratto con il Pentagono per assicurarsi che i suoi software non siano usati per sorvegliare i cittadini– Anthropic ha ripreso le trattative con il Pentagono per l’uso dei suoi sistemi di AI per scopi militari – I campioni di tessuto di Jeffrey Epstein hanno scatenato il putiferio nel laboratorio di Harvard di George Church– Finanziamenti da donatori individuali: lezioni dal caso Epstein – La guerra in Medio Oriente è un grosso problema anche per l’energia
Altri episodi

Cosa vuol dire davvero donare gli organi
E quali garanzie ci sono dalla scelta della donazione al momento del trapianto

Ci vuole una scientifica, con Stefano Nazzi
La scienza che si fa sulla scena del crimine è molto diversa da come ce la immaginiamo