La parola chiave è Defense Production Act, e non è un dettaglio tecnico per giuristi annoiati ma un detonatore strategico che collega intelligenza artificiale, potere statale e sicurezza nazionale in un unico circuito ad alta tensione. Quando il Dipartimento della Difesa degli Stati Uniti evoca la possibilità di ricorrere al Defense Production Act per mettere pressione a un fornitore di modelli generativi, non sta semplicemente negoziando un contratto; sta ridefinendo il confine tra etica aziendale e sovranità operativa. E nel mirino, questa volta, c’è Anthropic con il suo modello Claude, guidata da Dario Amodei, figura che nel panorama AI globale ha costruito la propria reputazione proprio sulla parola che oggi irrita Washington: guardrail.
Il contesto è apparentemente semplice, quasi banale nella sua dinamica industriale. Da un lato un’azienda che sviluppa un large language model con linee rosse esplicite, tra cui il rifiuto di consentire decisioni autonome letali o sistemi di sorveglianza di massa sui cittadini statunitensi; dall’altro lato il Pentagono, che considera l’intelligenza artificiale non un giocattolo da knowledge worker ma un moltiplicatore di forza in un’arena geopolitica sempre meno indulgente. In mezzo, il richiamo a uno strumento normativo nato nel 1950, durante la guerra di Corea, pensato per garantire allo Stato priorità e controllo sulle catene di fornitura critiche in tempi di emergenza. Oggi la catena critica non è l’acciaio, non è il carburante, non è il silicio fisico; è il modello.
Quando si parla di AI militare, il dibattito pubblico tende a scivolare nel melodramma hollywoodiano. In realtà la questione è più prosaica e più inquietante: chi controlla l’orchestrazione degli agenti intelligenti che scrivono codice, analizzano dati, suggeriscono target, filtrano segnali? Se un modello come Claude rifiuta esplicitamente di prendere decisioni definitive sugli obiettivi di sistemi d’arma o di facilitare sorveglianza di massa, sta esercitando una scelta di governance interna. Se il Dipartimento della Difesa ritiene che tale scelta comprometta l’efficacia operativa, può considerare quella stessa postura etica come un rischio per la supply chain nazionale. È qui che la keyword Defense Production Act diventa leva politica, non semplice opzione legale.
Il punto non è se l’ultimatum sia retorica o strategia negoziale. Il punto è che il solo fatto che venga evocato segnala una mutazione strutturale. L’intelligenza artificiale non è più vista soltanto come servizio SaaS o come piattaforma cloud; è trattata come infrastruttura critica, al pari di energia, telecomunicazioni, semiconduttori. In questo senso, l’AI governance entra in collisione con la sicurezza nazionale. E quando sicurezza nazionale e governance aziendale si scontrano, la storia insegna che l’asimmetria di potere non è a favore della startup, anche se valutata miliardi.
Le stesse aziende che hanno costruito la propria narrativa su AI safety, allineamento, prevenzione dell’uso malevolo, si trovano ora sotto pressione perché quei vincoli potrebbero limitare l’uso militare. L’allineamento, che nei white paper è presentato come prerequisito per la fiducia, nel contesto bellico rischia di essere percepito come frizione operativa. La tensione tra allineamento e deterrenza diventa un nodo strategico. Se un modello rifiuta determinate richieste, è un baluardo etico o un collo di bottiglia tattico?
Nel frattempo, il mercato non resta a guardare. xAI, la società fondata da Elon Musk, con il suo modello Grok, si propone come alternativa più flessibile sotto il profilo delle restrizioni d’uso, adottando standard di utilizzo meno vincolati da ulteriori paletti etici. Non è solo concorrenza tecnologica; è competizione regolatoria. Chi offre il modello più performante non vince necessariamente; potrebbe vincere chi offre il modello più negoziabile rispetto alle esigenze operative dello Stato.
La questione delle linee rosse è tutt’altro che astratta. Rifiutare che un modello prenda decisioni definitive sugli obiettivi di sistemi d’arma significa preservare un human in the loop sostanziale, non simbolico. Negare supporto a sorveglianza di massa domestica significa porre un limite netto tra sicurezza esterna e diritti interni. Sono scelte che definiscono il perimetro morale dell’azienda. Ma nel momento in cui il cliente è il governo federale e il dominio è la difesa, quelle scelte diventano elementi contrattuali, e quindi negoziabili, contestabili, potenzialmente aggirabili attraverso strumenti come il Defense Production Act.
Qui emerge un secondo livello, più sottile e più interessante per chi guida imprese tecnologiche. La dipendenza dai contratti governativi può trasformarsi in leva coercitiva. Se lo Stato dichiara che un fornitore rappresenta un rischio per la catena di fornitura della difesa, l’impatto reputazionale e commerciale si estende ben oltre il singolo contratto. Investitori, partner, clienti enterprise iniziano a fare calcoli diversi. La keyword supply chain risk diventa etichetta tossica. In un ecosistema dove l’AI è sempre più embedded in infrastrutture critiche, essere esclusi dal perimetro governativo statunitense equivale a una limitazione strategica globale.
Il dibattito si complica ulteriormente quando entra in gioco la dimensione internazionale. Se un modello generativo è stato utilizzato, direttamente o indirettamente, in operazioni sensibili contro attori esteri, come nel caso di tensioni legate al Venezuela e alla figura di Nicolás Maduro, la narrativa cambia. L’AI non è più solo strumento di produttività, ma componente di operazioni di intelligence e sicurezza. A quel punto la distinzione tra piattaforma civile e asset strategico si assottiglia fino quasi a scomparire.
La lezione è brutale, a governance dell’intelligenza artificiale non può essere pensata esclusivamente in termini di policy interna o di compliance volontaria. Deve essere progettata considerando la possibilità che lo Stato intervenga con strumenti straordinari. Il Defense Production Act non è un’ipotesi teorica; è una opzione sul tavolo. E quando lo Stato considera l’AI parte della propria architettura di potenza, la neutralità aziendale diventa una posizione difficile da sostenere.
Le imprese che operano nell’AI devono chiedersi se vogliono essere vendor, partner strategici o infrastrutture quasi pubbliche. Ogni scelta comporta compromessi differenti in termini di etica, accesso al mercato e autonomia decisionale.
La trasformazione più radicale è culturale. Per anni abbiamo parlato di AI come assistente, copilota, strumento di efficienza. Oggi la narrativa vira verso l’AI come moltiplicatore di forza, potenziale asset bellico, leva di deterrenza. Quando un modello viene considerato abbastanza critico da giustificare l’uso del Defense Production Act, significa che la macchina non è più vista come semplice software. È percepita come componente del potere statale. E il potere statale, per definizione, non ama dipendere da linee rosse definite altrove.
Il paradosso è evidente. Le aziende che hanno investito miliardi per dimostrare responsabilità e prudenza potrebbero trovarsi penalizzate in un contesto dove la priorità è l’efficacia operativa. La domanda strategica non è se le barriere etiche siano giuste o sbagliate; è chi ha l’ultima parola quando etica e sicurezza nazionale divergono. Se la risposta è lo Stato, allora la governance dell’intelligenza artificiale entra definitivamente nella sfera della geopolitica.
In questo scenario, parlare di agenti persistenti, di orchestrazione remota, di automazione del codice è quasi un dettaglio tecnico. Il vero tema è la sovranità sull’algoritmo. Chi decide cosa può fare un modello? L’azienda che lo sviluppa, il cliente che lo paga, o il governo che può invocare una legge del 1950 per ridefinirne l’uso? La risposta a questa domanda non è accademica; determina il futuro del settore.
La sensazione, per chi osserva con occhio strategico, è che stiamo attraversando una linea invisibile ma decisiva. L’intelligenza artificiale sta passando da prodotto commerciale a infrastruttura critica soggetta a logiche di mobilitazione. Il Defense Production Act diventa simbolo di questa transizione. Non si tratta più solo di innovare più velocemente; si tratta di capire chi, in ultima analisi, comanda la macchina quando la posta in gioco è la sicurezza nazionale. E in quel contesto, le dichiarazioni etiche suonano nobili, ma la storia insegna che, quando il potere chiama, il software risponde.
A.D.
Axios: https://www.axios.com/2026/02/24/anthropic-pentagon-claude-hegseth-dario?utm_source=Generative_AI&utm_medium=Newsletter&utm_campaign=anthropic-told-to-drop-the-ethics-or-lose-the-200m-paycheck&_bhlid=9e877ee1f9cd16252a1b05981b0df14bba5c41c4


