Il Pentagono ha limitato le possibilità di Anthropic di collaborare con il settore della difesa

(AP Photo/Patrick Sison)
(AP Photo/Patrick Sison)

Il dipartimento della Difesa statunitense ha designato Anthropic, una delle società più importanti nel settore dell’intelligenza artificiale (AI), come «rischio per la catena di approvvigionamento», limitando la capacità dell’azienda di collaborare con appaltatori della difesa. L’amministratore delegato di Anthropic, Dario Amodei, ha detto che la società intende contestare la designazione in tribunale. Al momento Claude, il chatbot di Anthropic, è ampiamente utilizzato dall’esercito statunitense.

Da settimane le relazioni fra Anthropic e il Pentagono sono tese. Il segretario alla Difesa degli Stati Uniti, Pete Hegseth, aveva chiesto alla società di rendere disponibili al Pentagono i propri sistemi di intelligenza artificiale per qualsiasi uso militare, ma Anthropic voleva impedire che fossero impiegati per la sorveglianza di massa o per le armi autonome. Il Pentagono aveva dato ad Anthropic un ultimatum, ma appena prima della sua scadenza Trump aveva interrotto bruscamente le trattative ordinando a tutte le agenzie federali di smettere immediatamente di utilizzare gli strumenti di Anthropic. A quel punto Hegseth aveva minacciato l’azienda di escluderla dalle forniture per il dipartimento, cosa che poi è stata fatta giovedì sera.

In questi anni Anthropic ha cercato di distinguersi dalle altre società impegnate nelle AI – come Meta, Alphabet e OpenAI – segnalando non solo maggiore attenzione alla tutela dei dati degli utenti, ma anche cautele nello sviluppo di sistemi che potrebbero essere pericolosi per la collettività.