8 minuti 1 mese

La società guidata da Dario Amodei denuncia l’amministrazione Trump dopo essere stata definita un “rischio per la supply chain”. Al centro della disputa: l’uso dell’intelligenza artificiale in ambito militare e i limiti imposti da Anthropic ai suoi strumenti.

Anthropic contro il governo degli Stati Uniti: cosa sta succedendo

Anthropic, una delle aziende più importanti nel settore dell’intelligenza artificiale, ha avviato una causa senza precedenti contro il governo degli Stati Uniti dopo essere stata etichettata dal Pentagono come “supply chain risk”, cioè un potenziale rischio per la catena di approvvigionamento tecnologica.

Secondo quanto sostenuto dall’azienda nella denuncia depositata in un tribunale federale della California, la decisione sarebbe stata “illegittima e senza precedenti”. Per Anthropic, il provvedimento rappresenterebbe una ritorsione politica legata al rifiuto della società di concedere al Dipartimento della Difesa un utilizzo completamente privo di vincoli dei propri strumenti di AI.

Perché Anthropic ha fatto causa

Alla base dello scontro ci sarebbe il confronto tra il CEO di Anthropic, Dario Amodei, e il segretario alla Difesa Pete Hegseth. L’azienda afferma di aver sempre mantenuto, anche nei contratti con il governo, alcune limitazioni precise sull’uso della propria tecnologia, in particolare in aree sensibili come:

  • guerra autonoma letale
  • sorveglianza di massa dei cittadini americani

Anthropic sostiene che queste restrizioni siano sempre state parte integrante dei suoi accordi pubblici e che Hegseth avrebbe invece chiesto la loro rimozione totale per proseguire la collaborazione con il settore della difesa.

Secondo la società, mentre erano in corso trattative per trovare un compromesso, il governo avrebbe interrotto bruscamente il dialogo, passando a una vera e propria “castigazione pubblica” dell’azienda.

La posizione del Pentagono e della Casa Bianca

Dopo il deterioramento dei rapporti, il Dipartimento della Difesa avrebbe classificato Anthropic come rischio per la supply chain, rendendola la prima azienda statunitense a ricevere questa etichetta in un contesto simile.

La decisione ha avuto conseguenze immediate: strumenti come Claude, il chatbot AI sviluppato da Anthropic, sarebbero stati considerati non più sufficientemente sicuri per l’uso governativo. Inoltre, secondo la denuncia, sarebbe stato vietato anche ai fornitori che lavorano con il governo di utilizzare i prodotti dell’azienda.

Un portavoce del Dipartimento della Difesa ha rifiutato di commentare, richiamando la politica che limita dichiarazioni su procedimenti legali in corso.

Più dura la risposta della Casa Bianca. La portavoce Liz Huston ha definito Anthropic una società “radical left” e “woke”, accusandola di voler controllare l’attività militare americana. Una linea che, per l’azienda, confermerebbe il carattere politico della misura contestata.

Le accuse di Anthropic: violazione della Costituzione

Nel ricorso, Anthropic sostiene che il governo federale non possa usare il proprio potere per punire un’azienda a causa delle sue posizioni pubbliche o delle sue policy interne. Il punto centrale della causa riguarda infatti la libertà di espressione garantita dal Primo Emendamento della Costituzione statunitense.

Nella denuncia, l’azienda scrive in sostanza che:

  • la Costituzione non consente al governo di punire una società per il suo discorso protetto;
  • nessuna legge federale autorizzerebbe le azioni adottate contro Anthropic;
  • la direttiva presidenziale avrebbe oltrepassato i limiti dei poteri del presidente.

Tra i convenuti figurano l’ufficio esecutivo del presidente Donald Trump, diversi membri di governo — tra cui Hegseth, Marco Rubio e Howard Lutnick — e 16 agenzie federali, inclusi il Dipartimento della Sicurezza Interna e il Dipartimento dell’Energia.

Il nodo: AI militare e limiti etici

Questo caso apre una questione molto più ampia: fino a che punto le aziende di intelligenza artificiale possono imporre limiti all’uso militare delle loro tecnologie?

Anthropic rivendica di aver collaborato con il governo americano sin dal 2024 e di essere stata la prima società di AI avanzata a vedere i propri strumenti impiegati in agenzie pubbliche impegnate anche in attività classificate. Tuttavia, la società sostiene di aver sempre posto dei confini chiari per evitare applicazioni considerate troppo rischiose o contrarie ai diritti fondamentali.

Lo scontro con l’amministrazione Trump mostra quindi la tensione crescente tra:

  • esigenze di sicurezza nazionale;
  • autonomia delle aziende private che sviluppano AI;
  • tutela di principi costituzionali come la libertà di parola;
  • dibattito globale sull’uso dell’intelligenza artificiale in ambito bellico.

Le conseguenze economiche per Anthropic

Anthropic sostiene che il danno subito sia già concreto e potenzialmente enorme. La società parla di effetti “irreparabili”sulla propria attività, con ripercussioni non solo sui rapporti con il governo ma anche sui contratti privati.

Secondo la causa, sarebbero a rischio centinaia di milioni di dollari nel breve periodo. Oltre al danno economico, l’azienda denuncia un colpo alla propria reputazione e un effetto dissuasivo più generale nei confronti di altre imprese o organizzazioni che potrebbero voler criticare apertamente l’amministrazione.

Anthropic non chiede un risarcimento monetario, ma vuole che il tribunale dichiari immediatamente illegittima la direttiva di Trump e annulli la classificazione dell’azienda come rischio per la supply chain.

Claude resta centrale nel mercato AI

Il caso assume ancora più rilievo perché Claude è oggi uno degli strumenti di intelligenza artificiale più diffusi al mondo. In particolare, Claude Code è ampiamente utilizzato da grandi aziende tecnologiche statunitensi come Google, Meta, Amazon e Microsoft.

Queste stesse aziende lavorano anche con il governo federale. Secondo quanto riportato, Microsoft, Google e Amazon avrebbero già chiarito che continueranno a usare Claude al di fuori delle attività collegate alla difesa.

Questo dettaglio rafforza la portata della controversia: non si tratta soltanto di una disputa tra una startup AI e il Pentagono, ma di un potenziale precedente destinato a influenzare l’intero rapporto tra Big Tech, governo e difesa.

Cosa può succedere ora

Secondo il giurista Carl Tobias, docente dell’Università di Richmond, una soluzione rapida non è impossibile, ma l’amministrazione Trump potrebbe scegliere una linea molto aggressiva sul piano giudiziario.

Lo scenario più probabile, secondo l’esperto, è una lunga battaglia legale fatta di ricorsi e appelli, con la concreta possibilità che il caso arrivi fino alla Corte Suprema.

Perché questa causa è importante

La causa di Anthropic potrebbe diventare uno dei casi più significativi degli ultimi anni nel rapporto tra intelligenza artificiale, potere politico e libertà costituzionali.

La domanda di fondo è semplice ma enorme: il governo può colpire un’azienda tecnologica perché non accetta un uso illimitato dei propri strumenti da parte dell’apparato militare?

La risposta non riguarderà solo Anthropic. Potrebbe invece ridefinire i confini entro cui le aziende AI potranno trattare con gli Stati, specialmente quando in gioco ci sono sorveglianza, armamenti autonomi e sicurezza nazionale.