Anthropic non cederà alle pressioni del Pentagono sugli usi militari dei suoi sistemi di AI

«In buona coscienza non possiamo accogliere la loro richiesta», ha detto il capo della società rispondendo all'ultimatum del segretario alla Difesa degli Stati Uniti

(AP Photo/Patrick Sison)
(AP Photo/Patrick Sison)

Anthropic, una delle principali aziende nel settore delle intelligenze artificiali (AI), ha fatto sapere che non cederà alle pressioni del segretario alla Difesa degli Stati Uniti, Pete Hegseth, che aveva chiesto alla società di rendere disponibili al Pentagono i suoi sistemi di intelligenza artificiale per qualsiasi uso militare. Hegseth aveva dato ad Anthropic un ultimatum, chiedendo di dare una risposta definitiva entro le ore 17:01 di venerdì 27 febbraio.

Due giorni fa Hegseth aveva detto che se Anthropic non si fosse adeguata alla richiesta nei tempi definiti il Pentagono avrebbe annullato i contratti che ha con la società escludendola. Hegseth aveva però anche minacciato di attivare il “Defense Production Act”, una norma che viene di solito usata durante le emergenze nazionali nel settore energetico e in quello della salute, e che potrebbe obbligare Anthropic a fornire i servizi richiesti. In questo secondo caso potrebbero esserci ricorsi e contenziosi in tribunale.

Anthropic, conosciuta soprattutto per il chatbot Claude, è stata la prima società di AI a fare contratti da centinaia di milioni di dollari col Pentagono per la gestione di documenti secretati e legati alla sicurezza nazionale. Per questo i suoi sistemi sono usati da numerosi fornitori dell’esercito degli Stati Uniti, integrati direttamente nei loro servizi o utilizzati per svilupparli.

Da settimane le relazioni fra Anthropic e il Pentagono sono tese. Hegseth vuole integrare i sistemi di AI dell’azienda nei programmi militari di difesa e senza limitazioni, Anthropic chiede invece garanzie e cautele sul loro impiego, che non vengano cioè usate per armi autonome e nei programmi di sorveglianza di massa.

Ieri l’amministratore delegato di Anthropic Dario Amodei ha detto che «in un ristretto numero di casi, crediamo che l’AI possa minare, anziché difendere, i valori democratici» e che quindi alcuni suoi usi sono «semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile». Amodei ha spiegato che due casi d’uso delle loro tecnologie – l’uso sul campo per armi autonome e per la sorveglianza di massa – non sono mai stati inclusi nei contratti con il Pentagono e ritiene che non dovrebbero essere inclusi nemmeno ora: «In buona coscienza non possiamo accogliere la loro richiesta. È prerogativa del dipartimento selezionare gli appaltatori più in linea con la loro visione. Ma dato il valore sostanziale che la tecnologia di Anthropic fornisce alle nostre forze armate, speriamo che ci ripensino».

In questi anni Anthropic ha cercato di distinguersi dalle altre società impegnate nelle AI – come Meta, Alphabet e OpenAI – segnalando non solo maggiore attenzione alla tutela dei dati degli utenti, ma anche cautele nello sviluppo di sistemi che potrebbero essere pericolosi per la collettività.

– Leggi anche: Il Pentagono sta facendo forti pressioni su Anthropic