La questione tra il Pentagono e le aziende di intelligenza artificiale, dall’inizio
Uno vuole massima libertà nell’uso delle tecnologie, le altre – OpenAI e Anthropic – hanno idee diverse su quanto concedergli

Sabato Caitlin Kalinowski, la responsabile del dipartimento di robotica di OpenAI, ha annunciato le proprie dimissioni, spiegando su X che alcune delle recenti decisioni dell’azienda avrebbero richiesto «più riflessioni di quante ne sono state fatte». Kalinowski si riferisce alla decisione di OpenAI, annunciata lo scorso sabato, di collaborare con il dipartimento della Difesa statunitense (Pentagono) per la fornitura di tecnologie da utilizzare in attività legate alla sicurezza nazionale.
Le dimissioni di Kalinowski sono l’ultimo sviluppo di una storia che negli Stati Uniti va avanti confusamente da alcune settimane, e che riguarda il delicato tema dell’impiego dell’intelligenza artificiale nel campo della difesa militare e della sicurezza. Oltre a OpenAI, l’azienda di ChatGPT, la storia riguarda anche un’altra delle principali società del settore, Anthropic, nota per il chatbot Claude, che di recente è diventata assai rilevante e che da sempre predica uno sviluppo cauto delle AI.
Anthropic era stata la prima società di AI a fare contratti da centinaia di milioni di dollari col Pentagono. I suoi sistemi sono usati da numerosi fornitori dell’esercito degli Stati Uniti, integrati direttamente nei loro servizi o utilizzati per svilupparli. Non è l’unica azienda di intelligenza artificiale a collaborare col Pentagono (ci sono anche Google, OpenAI e xAI, l’azienda di Elon Musk), ma è quella più coinvolta perché dall’anno scorso ha acconsentito a integrare i propri programmi con quelli di Palantir, controversa azienda di analisi di dati fondata da Peter Thiel, che gestisce anche i documenti secretati per motivi di sicurezza nazionale.
Il caso di questi giorni è cominciato il 15 febbraio, quando il Wall Street Journal aveva pubblicato un articolo in cui raccontava come Anthropic avesse manifestato delle preoccupazioni per l’uso che Palantir e il Pentagono avevano fatto delle sue tecnologie nel pianificare e portare a termine l’arresto del presidente venezuelano Nicolas Maduro, il 3 gennaio. Allora tra il Pentagono e Anthropic erano già in corso trattative per allargare l’utilizzo dei suoi programmi a qualsiasi uso militare senza limitazioni. Anthropic però aveva opposto una certa resistenza, chiedendo cautele per quanto riguardava l’impiego delle sue tecnologie nella sorveglianza di massa o in guerra.

Pete Hegseth, 3 marzo 2026 (Graeme Sloan/Bloomberg)
Il 24 febbraio il segretario alla Difesa degli Stati Uniti Pete Hegseth aveva dato ad Anthropic un ultimatum, e appena prima della sua scadenza il presidente Donald Trump aveva interrotto bruscamente le trattative ordinando a tutte le agenzie federali di smettere immediatamente di utilizzare gli strumenti di Anthropic. Giovedì il Pentagono ha fatto quello che aveva minacciato: ha indicato Anthropic come “supply-chain risk”, cioè come un fornitore del governo che costituisce un rischio per la sicurezza nazionale. È una soluzione che viene adottata di solito per impedire ad aziende legate al governo cinese di fare affari negli Stati Uniti, soprattutto in settori strategici come quelli delle telecomunicazioni o appunto della difesa.
L’amministratore delegato di Anthropic, Dario Amodei, ha detto che la società intende contestare questa decisione in tribunale, e secondo vari esperti ci sono buone possibilità che la decisione del Pentagono venga giudicata illegale. La questione è inoltre piuttosto complicata perché due dei maggiori investitori di Anthropic, Google e Amazon, sono anche fornitori del Pentagono. Il Pentagono però ha anche detto che continuerà a usare Anthropic finché non l’avrà sostituita, fino a un massimo di sei mesi. E secondo quanto riportato da diversi media statunitensi autorevoli, il Pentagono starebbe usando le tecnologie di Anthropic nella guerra contro l’Iran iniziata lo scorso sabato.

Dario Amodei, 19 febbraio 2026 (Ruhani Kaur/Bloomberg)
Il rapporto con il Pentagono aveva cominciato a mettere in difficoltà Anthropic già da qualche tempo, creando malumori sia tra i suoi dipendenti che tra gli utenti dei suoi servizi. Soprattutto attraverso Amodei, in questi anni Anthropic aveva infatti cercato di distinguersi dalle altre società impegnate nelle AI – come Meta, Alphabet e OpenAI – segnalando non solo maggiore attenzione alla tutela dei dati degli utenti, ma anche cautele nello sviluppo di sistemi che potrebbero essere pericolosi per la collettività. Amodei aveva detto in più occasioni di non voler consentire l’uso dei sistemi di AI della propria azienda né in azioni militari che potrebbero portare all’uccisione di qualcuno, né per attività di sorveglianza di massa.
Dopo la rottura con Anthropic, è subentrata OpenAI. Il 28 febbraio l’azienda ha firmato un contratto con il Pentagono, acconsentendo all’utilizzo dei suoi servizi per qualsiasi scopo legale con alcune generiche limitazioni. La notizia dell’accordo ha però provocato numerose critiche verso l’azienda, che infatti nel giro di pochi giorni ha detto di aver modificato il testo del contratto col Pentagono per chiarire il tipo di operazioni in cui avrebbe potuto usare i suoi programmi di intelligenza artificiale. Sam Altman, il CEO di OpenAI, ha detto che i sistemi di intelligenza artificiale «non devono essere utilizzati intenzionalmente per la sorveglianza interna di cittadini e residenti statunitensi» e che questi non saranno usati dalle agenzie di intelligence del dipartimento, come ad esempio la National Security Agency.
Il New York Times ha fatto notare però che, nonostante le rassicurazioni di OpenAI rispetto ai limiti concordati col Pentagono, non ci sono vere garanzie del fatto che i suoi sistemi di intelligenza artificiale non verranno usati per la sorveglianza di massa, che è un tema poco regolamentato negli Stati Uniti e quindi sufficientemente vago da poter essere interpretato in vari modi. Inoltre se OpenAI si accorgesse di un uso illecito dei suoi programmi da parte del Pentagono potrebbe solo interrompere la collaborazione, ma non intervenire su quanto fatto.
Secondo molti commentatori esperti, la gestione dei rapporti con Anthropic da parte del Pentagono sarebbe stata guidata da ragioni politiche, cioè dalla volontà di avere a che fare con un fornitore più accomodante. In effetti il Pentagono avrebbe potuto interrompere la collaborazione con l’azienda senza dichiararla “supply-chain risk”. E inoltre, alla fine, sembra che OpenAI abbia ottenuto un contratto col Pentagono simile a quello che era stato negato ad Anthropic.
Nelle vicende di questi giorni stanno confluendo due approcci molto diversi maturati all’interno del settore delle intelligenze artificiali negli ultimi anni. Il CEO di Anthropic, Amodei, era un dipendente di OpenAI che si licenziò e nel 2021 fondò, insieme ad altri ex colleghi, una nuova startup proprio con la preoccupazione che la corsa al profitto nel settore avrebbe portato a effetti dannosi per la sicurezza delle persone. Anthropic ha redatto una specie di Costituzione consultabile online insieme alla filosofa scozzese Amanda Askell: una serie di indicazioni rivolte direttamente al software Claude, a cui Anthropic chiede di «essere davvero utile alle persone con cui o per conto di cui lavora, così come alla società, evitando al contempo azioni non sicure, non etiche o ingannevoli».
Anche OpenAI all’inizio della sua vita si presentava con un approccio cauto: fino a un paio di anni fa Altman si diceva molto preoccupato dei progressi del settore, tanto da firmare, con decine di altri scienziati e imprenditori, una lettera aperta che chiedeva di «mitigare il rischio di estinzione causato dalle AI». Di recente però l’azienda ha adottato un approccio più spericolato, presentando prodotti a ciclo continuo e con poche cautele.
Allo stesso tempo però sia Anthropic che OpenAI sono ugualmente molto interessate ai soldi che il Pentagono offre. Soprattutto in un momento in cui la gara tra società di intelligenza artificiale è così serrata, ma non ancora abbastanza redditizia.
Le vicende degli ultimi giorni hanno portato a quello che sembra per il momento un grosso danno reputazionale per OpenAI. Oltre alle dimissioni di una delle sue dirigenti più importanti, la notizia dell’accordo col Pentagono ha causato un aumento del numero di app di ChatGPT disinstallate. Al contempo Claude, il chatbot di Anthropic, è diventata la app gratuita più scaricata dall’App Store negli Stati Uniti.



