Il potere non ama le clausole morali, soprattutto quando si parla di guerra, sorveglianza e supremazia tecnologica. La notizia che il Pentagono stia valutando seriamente di interrompere il rapporto con Anthropic non è un semplice attrito contrattuale ma un segnale sistemico. Siamo davanti a uno scontro tra due visioni inconciliabili dell’intelligenza artificiale. Da una parte l’apparato militare più potente del pianeta che pretende strumenti utilizzabili per ogni scopo legale, inclusi quelli che fino a ieri chiamavamo fantascienza militare. Dall’altra una società di AI che insiste sul fatto che alcune linee non vadano attraversate, nemmeno in nome della sicurezza nazionale.
Anthropic ha messo due paletti chiari, quasi ingenui se osservati dal punto di vista di un generale o di un funzionario del Dipartimento della Difesa. Niente sorveglianza di massa sui cittadini americani e niente armi completamente autonome. Due limiti che per molti ingegneri suonano come il minimo sindacale etico, ma che per il Pentagono rappresentano una seccatura operativa. L’argomento usato dai funzionari è pragmatico e spietato. Esiste una vasta zona grigia tra ciò che è sorveglianza di massa e ciò che è intelligence avanzata. Esiste un continuum tra supporto decisionale e autonomia letale. Dover negoziare caso per caso, con il rischio che un modello blocchi improvvisamente una funzione critica, viene percepito come inaccettabile.
Il Pentagono pretende uno standard semplice. Tutto ciò che è legale deve essere consentito. Anthropic risponde che la legalità non è sufficiente quando si parla di sistemi che possono scalare decisioni letali o sistemi di controllo su popolazioni intere. Il risultato è una frizione che va ben oltre questo singolo contratto.
Il caso Maduro è emblematico e quasi cinematografico. Durante un’operazione per catturare il presidente venezuelano Nicolás Maduro, condotta con il supporto di strumenti software sviluppati da Palantir, qualcuno in Anthropic avrebbe chiesto se il loro modello fosse stato utilizzato direttamente nell’operazione. Secondo la versione dei funzionari americani, il tono lasciava intendere un possibile disappunto legato al fatto che ci fosse stato uso di forza cinetica. Persone ferite, colpi sparati, realtà non simulata. Anthropic nega con decisione e parla di normali discussioni tecniche, ma il danno politico è fatto. Anche solo l’idea che un fornitore tecnologico possa sindacare su un’operazione militare reale è vista come un precedente pericoloso.
Anthropic sostiene di essere impegnata a supportare la sicurezza degli Stati Uniti, ricordando di essere stata la prima azienda di AI a portare modelli di frontiera su reti classificate e a fornire versioni personalizzate per clienti governativi. Eppure questo non basta. Nel mondo militare, la fiducia non è una dichiarazione di intenti ma la certezza che lo strumento non ti tradirà nel momento peggiore.
Il confronto con gli altri grandi attori del settore rende la situazione ancora più interessante. OpenAI, Google e xAI forniscono già i loro modelli in contesti non classificati e hanno accettato di rimuovere molte delle limitazioni applicate agli utenti civili quando lavorano con il Pentagono. Le trattative per l’accesso alle reti classificate sono in corso e, secondo fonti governative, almeno uno di questi player avrebbe già accettato lo standard del “tutti gli scopi legali”. Gli altri due sarebbero comunque più flessibili di Anthropic. Traduzione non serve un grande sforzo interpretativo per capirla. Se non ti adegui, qualcuno lo farà al posto tuo.
Ed è qui che la storia diventa quasi darwiniana. Il Pentagono ammette che sostituire Anthropic non sarebbe immediato. I concorrenti sarebbero indietro su alcune applicazioni specialistiche per il governo. Questo dà ad Anthropic una leva negoziale temporanea, ma anche una scadenza implicita. Nessun apparato militare accetta di dipendere a lungo da un fornitore percepito come ideologico. L’uso di questo termine da parte di un funzionario non è casuale. Ideologico, nel lessico del potere, significa imprevedibile.
La figura di Dario Amodei incombe come un’ombra lunga su tutta la vicenda. Le sue posizioni pubbliche sui rischi dell’AI sono note, articolate e spesso condivisibili da chiunque abbia letto più di due paper sul tema dell’allineamento. Ma quando queste preoccupazioni si traducono in limiti contrattuali che ostacolano operazioni militari reali, diventano politicamente tossiche. All’interno di Anthropic, inoltre, esiste un malessere non dichiarato tra alcuni ingegneri rispetto al lavoro con il Pentagono. Un dettaglio che in una startup sarebbe marginale, ma che in un fornitore strategico per la difesa diventa un fattore di rischio.
La verità, quella che raramente viene detta esplicitamente, è che l’intelligenza artificiale militare non può essere neutrale. O accetti di essere uno strumento di potere, con tutto ciò che comporta, o cerchi di imporre limiti e paghi il prezzo. Il Pentagono non sta chiedendo ad Anthropic di violare la legge. Sta chiedendo di rinunciare all’idea che la legge sia solo un punto di partenza e non di arrivo. In un’epoca di competizione strategica globale, con Cina e Russia come convitati di pietra, ogni freno viene visto come un vantaggio per l’avversario.
Per anni il settore tecnologico ha accusato i governi di non capire l’AI, di regolamentare male, di muoversi con lentezza. Ora che un governo chiede esplicitamente più libertà operativa, è una parte dell’industria a tirare il freno. Non per ignoranza, ma per consapevolezza. E questo rende lo scontro ancora più interessante, perché non esistono buoni e cattivi netti. Esistono interessi divergenti, paure legittime e una corsa tecnologica che non aspetta che il dibattito etico trovi una sintesi elegante.
Nel breve periodo, è probabile che si trovi un compromesso ambiguo, magari fatto di clausole interpretative e canali di comunicazione più opachi. Nel medio periodo, però, la direzione sembra segnata. I modelli di AI che diventeranno infrastruttura militare dovranno essere completamente allineati alle esigenze operative di chi li usa. Chi non accetterà questa realtà rischia di restare fuori dal gioco più grande di tutti. Quello in cui l’algoritmo non è più solo una linea di codice, ma una componente della deterrenza nazionale.
La domanda finale resta sospesa, come un drone in volo stazionario. Se anche le aziende più caute e riflessive cedono su questi limiti, chi rimarrà a dire no quando la linea verrà spostata ancora più avanti. Forse nessuno. O forse qualcuno che oggi non esiste ancora, e che verrà accusato, come Anthropic oggi, di essere troppo ideologico in un mondo che pretende solo efficienza.
A.D.
Sources
https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
https://www.wsj.com/tech/ai/anthropic-ai-defense-department-contract-947d5f33?mod=article_inline



