Poche ore dopo che il presidente Donald Trump aveva ordinato alle agenzie federali di avviare il phase out dei sistemi di Anthropic, le forze armate statunitensi conducevano un massiccio attacco aereo contro l’Iran utilizzando, secondo fonti riportate dal The Wall Street Journal, proprio la piattaforma Claude dell’azienda.
Il United States Central Command avrebbe impiegato Claude per valutazioni di intelligence, identificazione dei target e simulazione di scenari operativi. Non un uso marginale o sperimentale, ma integrazione diretta nella catena analitica. Questo mentre era formalmente in corso una rottura negoziale tra Anthropic e il Pentagon, con una direttiva presidenziale che prevedeva sei mesi per dismettere i prodotti della società.
La frattura è tecnica prima ancora che politica. Quando un modello linguistico è già integrato in sistemi classificati di intelligence e simulazione, la decisione presa ai vertici non si traduce istantaneamente in una modifica operativa sul campo. Esiste un ritardo strutturale, fatto di costi di integrazione già sostenuti, riaddestramenti, ri certificazioni di sicurezza, test paralleli. In termini industriali si chiamano sunk cost. In termini militari si chiama continuità operativa.
Il CEO di Anthropic, Dario Amodei, aveva dichiarato pubblicamente che l’azienda non avrebbe rimosso i guardrail che impediscono l’uso di Claude per sorveglianza di massa interna o armi completamente autonome. Il Dipartimento della Difesa, secondo quanto emerso, chiedeva accesso per “qualsiasi uso legale”. La differenza tra queste due formule non è semantica, è filosofica. È la distanza tra un laboratorio di frontiera che tenta di preservare una differenziazione etica e un apparato statale che rivendica la massima flessibilità operativa.
Trump ha reagito con toni tutt’altro che diplomatici, ordinando la cessazione immediata dell’uso dei prodotti Anthropic. Il Segretario alla Difesa Pete Hegseth ha poi designato l’azienda come rischio per la supply chain della sicurezza nazionale, una qualifica finora riservata ad attori stranieri ostili. Anthropic ha definito la misura senza precedenti e ha annunciato battaglia legale.
Nel frattempo OpenAI si è mossa con rapidità chirurgica. Il CEO Sam Altman ha annunciato un accordo con il Pentagono per coprire reti militari classificate, sostenendo che l’intesa includerebbe gli stessi guardrail che Anthropic aveva cercato di difendere. Su X, Altman ha definito la blacklist un precedente inquietante, pur riconoscendo che anche Anthropic non avrebbe gestito al meglio la crisi. Una posizione equilibrata in apparenza, ma perfettamente coerente con una strategia di consolidamento.
Quasi cinquecento dipendenti di OpenAI e di Google hanno firmato una lettera aperta, denunciando il rischio che il Pentagono stia mettendo le aziende di AI l’una contro l’altra. Il messaggio implicito è chiaro. Quando l’AI diventa infrastruttura militare, la concorrenza non è più solo di mercato, ma geopolitica.
Il punto centrale, tuttavia, resta un altro. Il dibattito non riguarda se l’intelligenza artificiale verrà usata nella difesa. Questo è già realtà operativa. La vera questione è se i laboratori di frontiera possano mantenere guardrail differenziati una volta che i loro sistemi diventano asset strategici sotto contratti che parlano di qualsiasi uso legale. Nel momento in cui un modello è embedded in sistemi di targeting algoritmico e simulazione bellica, la sua neutralità teorica evapora.
Per chi osserva il settore con lente industriale, emergono tre implicazioni strutturali. Primo, la portabilità dei modelli diventerà priorità assoluta per le agenzie di difesa. Nessun operatore militare serio accetterà di scoprire, durante una crisi, che il proprio layer di AI è politicamente fragile. Secondo, la ridondanza multi fornitore non sarà più un’opzione ma un requisito di resilienza strategica. Terzo, i costi di integrazione renderanno ogni cambio di piattaforma una decisione più politica che tecnica.
In questo scenario, l’AI militare non è soltanto un tema etico o regolatorio. È un problema di architettura sistemica. Il targeting algoritmico si regge su una stratificazione complessa di modelli, database, simulazioni e pipeline decisionali. Intervenire su un nodo senza riprogettare l’intero sistema è illusorio.
Il caso iraniano dimostra che la separazione tra decisione politica e infrastruttura tecnologica è più fragile di quanto si voglia ammettere. Le dichiarazioni possono essere immediate; le architetture no. La velocità dell’algoritmo supera quella della burocrazia.
Per i leader aziendali e per chi definisce policy pubbliche, il messaggio è netto. L’intelligenza artificiale, quando entra nella difesa, smette di essere un prodotto e diventa infrastruttura critica. E ogni infrastruttura critica genera dipendenze, lock in, attriti tra etica dichiarata e realpolitik operativa.
La domanda non è se vedremo altri casi simili. La domanda è quale modello di governance riuscirà a sopravvivere quando gli algoritmi saranno troppo integrati per essere rimossi senza destabilizzare l’intero sistema. In quel momento, la vera linea del fronte non passerà tra Stati, ma tra codice, contratti e potere.
A.D.
#AIMilitare #TargetingAlgoritmico #Pentagono #Anthropic #OpenAI #Geopolitica #Difesa #IntelligenzaArtificiale #SicurezzaNazionale
WSJ: https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2
Trump Directive https://decrypt.co/359453/trump-orders-federal-agencies-dump-woke-anthropic-ai


