La questione dei sistemi d’arma autonomi letali non si riduce a una semplice contrapposizione tra proibizione e permissività, nonostante il linguaggio dei media e di talune dichiarazioni diplomatiche voglia far apparire il dibattito come un bivio netto, quasi manicheo. Ciò che si osserva, invece, è un terreno stratificato di considerazioni giuridiche, etiche, strategiche e politiche che rendono l’idea di una scelta binaria sostanzialmente fuorviante. Alla base di tutto vi è un problema di concettualizzazione dell’autonomia, non solo tecnologica ma morale: cosa significa davvero affidare a una macchina il potere di decidere sulla vita umana? E quali margini di controllo rimangono all’umano che lo autorizza, lo supervisiona o lo programma? Questi interrogativi, pur apparentemente teorici, sono oggi centrali nel negoziato multilaterale presso la Convenzione su alcune Armi Convenzionali delle Nazioni Unite.
Dal 2014, il Group of Governmental Experts (GGE) on LAWS lavora per delineare un quadro comune, ma la difficoltà non è solo tecnica: gli Stati faticano a convergere sulla definizione stessa di arma autonoma, sul grado di automazione che renda necessario un intervento normativo e su quali principi di responsabilità debbano applicarsi quando l’algoritmo agisce in situazioni complesse, dove la distinzione tra civile e combattente non è solo sfumata ma spesso del tutto incerta. Si tratta di un nodo concettuale che intreccia filosofia morale, diritto internazionale e strategia militare: ogni formulazione che sembri chiara su carta può rivelarsi insufficiente o ambigua sul campo di battaglia, eppure è su quella formulazione che si baserebbe ogni trattato futuro.
L’adozione di risoluzioni presso l’Assemblea Generale delle Nazioni Unite, pur rilevante, non equivale all’apertura di negoziati formali. La risoluzione 79/L.77 del dicembre 2024, che ha visto una larga maggioranza di Stati favorevoli, non obbliga gli Stati a negoziare un trattato vincolante; rappresenta piuttosto un riconoscimento condiviso della necessità di approfondire il dialogo sulle questioni etiche, umanitarie e di sicurezza, senza però sciogliere i nodi politici e strategici che rendono la convergenza così complessa. Questo è un punto spesso trascurato: la diplomazia multilaterale non procede per scadenze lineari, ma per iterazioni, compromessi e, talvolta, silenzi strategici.
Sul versante etico, le preoccupazioni sono lampanti. Il Segretario Generale delle Nazioni Unite ha ripetutamente ammonito che delegare alle macchine la decisione sulla vita umana rappresenta un limite morale che non può essere oltrepassato senza compromettere la dignità stessa della persona. Il Comitato Internazionale della Croce Rossa conferma che i principi di distinzione, proporzionalità e precauzione, cardini del diritto internazionale umanitario, non possono essere assicurati da sistemi che operano senza supervisione umana significativa. Qui emerge la tensione concettuale più profonda: l’autonomia tecnica non coincide automaticamente con autonomia morale o legale, eppure la politica internazionale fatica a tenere conto di questa differenza con la necessaria attenzione.
Dal punto di vista geopolitico, la situazione è altrettanto intricata. Stati con industrie della difesa avanzate, come Stati Uniti o Russia, mostrano riluttanza a vincoli stringenti, sottolineando l’efficacia del diritto internazionale vigente e i rischi di trattati troppo rigidi. Altri, sostenuti da una combinazione di attivismo civile e preoccupazioni umanitarie, spingono per norme più incisive, capaci di proibire almeno i sistemi completamente autonomi. Questa divergenza non è soltanto tattica: riflette concezioni profondamente diverse di ciò che significhi responsabilità, controllo e successo politico in un contesto in cui la tecnologia avanza più rapidamente della legge.
In tale contesto, il dibattito ridotto a slogan del tipo “vietare o consentire” appare riduttivo e fuorviante. Esiste un ventaglio più ampio di strumenti: impegni politici non vincolanti, linee guida operative, chiarimenti sull’applicazione del diritto internazionale esistente, fino a trattati vincolanti. Ogni approccio ha vantaggi e limiti, e il processo multilaterale deve trovare un equilibrio tra ambizione normativa e fattibilità politica. Come sottolineano analisti e studiosi, anche risultati apparentemente modesti possono avere un effetto cumulativo, creando norme comportamentali, stimolando una cultura della responsabilità e gettando le basi per futuri sviluppi normativi.
Non meno rilevante è l’aspetto concettuale della tecnologia stessa. Parlare di autonomia significa interrogarsi su ciò che resta dell’umano nel processo decisionale: è sufficiente la supervisione a distanza? O la programmazione iniziale determina già in modo irreversibile le scelte della macchina? Queste sono domande che trascendono il diritto e la politica: riguardano la filosofia dell’azione, la morale della responsabilità e l’ontologia dell’agire umano in contesti tecnologicamente mediati. In questo senso, i negoziati ONU non sono solo un esercizio diplomatico, ma un laboratorio in cui la comunità internazionale tenta di tradurre concetti etici in norme operative concrete.
In definitiva, il percorso verso una regolamentazione dei sistemi d’arma autonomi non è lineare e non si limita a un voto, a una risoluzione o a un trattato: è un processo dialettico, stratificato e in continua evoluzione, dove la filosofia della responsabilità, il diritto internazionale, la strategia militare e la tecnologia si intrecciano in modo inestricabile. Ignorare queste sfumature significa ridurre la discussione a un racconto retorico, ma comprenderle significa affrontare il vero dilemma della nostra epoca: come conservare il controllo umano e la responsabilità morale in un mondo in cui le macchine possono decidere sulla vita e sulla morte.
A.D.



