A. Dina
Chiunque oggi sieda in un consiglio di amministrazione e pronunci con disinvoltura la parola “AI” senza aver mai sfogliato The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence sta, con elegante inconsapevolezza, firmando una cambiale in bianco. Il punto non è accademico, e nemmeno filosofico, almeno non nel senso sterile del termine; è profondamente industriale, finanziario e, soprattutto, politico. Il libro curato da Nathalie A. Smuha non è un esercizio di stile europeo, ma una lente chirurgica su un problema che molte aziende fingono di non vedere: l’intelligenza artificiale non è solo codice, è potere normativo distribuito.
La Silicon Valley ama raccontare l’AI come una naturale evoluzione del software, una sorta di upgrade inevitabile del cloud computing. Una narrativa comoda, quasi rassicurante. Il manuale di Cambridge distrugge questa illusione con una precisione quasi crudele, mostrando come ogni sistema algoritmico sia, in realtà, una forma di regolazione implicita. In altre parole, il codice non esegue soltanto istruzioni, ma implementa scelte politiche, spesso senza accountability. “Code is law”, scriveva Lawrence Lessig più di vent’anni fa; oggi potremmo aggiornare la frase: “AI is unaccountable law, unless proven otherwise”.
Il focus europeo del volume non è casuale, né provinciale. L’Europa, con il suo approccio regolatorio, è diventata una sorta di laboratorio globale per il governo dell’intelligenza artificiale. Il cosiddetto AI Act non è solo una normativa, è una dichiarazione di intenti: limitare l’arbitrio tecnologico prima che diventi sistemico. Il libro evidenzia con lucidità come questa ambizione si scontri con una realtà meno romantica, fatta di asimmetrie informative, lobbying aggressivo e una cronica lentezza istituzionale. Le Big Tech non temono la regolazione; temono la regolazione efficace.
Interessante notare come il testo non cada nella trappola moralista che spesso affligge il dibattito sull’AI. Non si limita a dire che gli algoritmi possono essere discriminatori o opachi, cosa ormai ovvia; piuttosto, analizza i meccanismi attraverso cui queste distorsioni emergono e si consolidano. Bias nei dati, incentivi economici mal calibrati, modelli di business basati sull’estrazione massiva di informazioni. Tutto già noto, ma raramente connesso in una visione sistemica. Il risultato è una mappa dettagliata di un ecosistema dove la responsabilità è diffusa, ma la colpa è sempre di qualcun altro.
Una delle intuizioni più rilevanti riguarda il concetto di “rule of law” nell’era algoritmica. Non si tratta solo di applicare le leggi esistenti all’AI, ma di capire come l’AI stessa modifichi il significato di legalità. Quando una decisione viene presa da un modello di machine learning, chi è il soggetto giuridico? Il programmatore, l’azienda, il modello stesso? Domande che sembravano teoriche fino a pochi anni fa, oggi sono già sul tavolo dei tribunali. E la risposta, come suggerisce il manuale, non sarà né semplice né uniforme.
Nel mondo reale, quello dove si fanno utili e si chiudono bilanci, queste questioni si traducono in rischio. Rischio legale, certo, ma anche reputazionale e operativo. Un algoritmo che discrimina non è solo un problema etico; è una passività potenziale. Un sistema opaco non è solo un limite tecnico; è un ostacolo alla compliance. Il libro insiste su questo punto con una chiarezza quasi brutale: ignorare le implicazioni legali dell’AI non è innovazione, è negligenza strategica.
Curioso come il dibattito pubblico continui a oscillare tra utopia e distopia, mentre la realtà si muove su coordinate molto più pragmatiche. Le aziende implementano sistemi AI perché aumentano l’efficienza, riducono i costi e, in alcuni casi, generano nuovi flussi di ricavi. Il manuale non nega questi benefici, ma li inserisce in un contesto più ampio, dove ogni vantaggio ha un costo nascosto. La domanda non è se usare l’AI, ma a quali condizioni e con quali garanzie.
Un passaggio particolarmente illuminante riguarda il settore pubblico. Qui l’uso dell’AI assume una dimensione quasi esistenziale, perché tocca direttamente i diritti dei cittadini. Sistemi di scoring, algoritmi di allocazione delle risorse, strumenti di sorveglianza. Tutto già in uso, spesso senza un adeguato dibattito democratico. Il rischio, come sottolinea Smuha, è quello di una “algorithmic rule by law”, dove la tecnologia non solo applica le regole, ma le definisce implicitamente. Una forma di governance che bypassa i tradizionali meccanismi di controllo.
Nel settore privato, la situazione non è molto diversa, solo meno visibile. Le decisioni automatizzate influenzano assunzioni, concessione di credito, pricing dinamico. Processi che, fino a ieri, erano gestiti da esseri umani e oggi sono delegati a modelli statistici. Il manuale evidenzia come questa transizione crei una zona grigia, dove le responsabilità si diluiscono e la trasparenza diventa un optional. Un terreno fertile per contenziosi futuri.
Molte aziende investano milioni in sviluppo AI, ma pochi spiccioli in governance. È la versione tecnologica della casa costruita sulla sabbia. Il libro di Cambridge suggerisce un approccio diverso, più integrato, dove la compliance non è un vincolo, ma un elemento di progettazione. “Ethics by design”, si dice spesso; nella pratica, significa incorporare considerazioni legali ed etiche fin dalle prime fasi di sviluppo. Un’idea semplice, quasi banale, eppure ancora rivoluzionaria in molti contesti aziendali.
La dimensione interdisciplinare del volume è forse il suo punto di forza più sottovalutato. Giuristi, filosofi, informatici, economisti. Un mix che riflette la natura intrinsecamente ibrida dell’AI. Non è un caso che le soluzioni più efficaci emergano proprio dall’intersezione di competenze diverse. Il problema è che le organizzazioni, soprattutto quelle più tradizionali, sono strutturate in silos. Il risultato è una frammentazione decisionale che mal si adatta alla complessità dell’AI.
Un altro elemento che merita attenzione è la questione dei diritti fondamentali. Il manuale dedica ampio spazio a come l’AI possa influenzare libertà individuali, privacy, non discriminazione. Temi che, in Europa, hanno un peso specifico maggiore rispetto ad altri contesti geografici. Non per idealismo, ma per storia. Dopo tutto, il continente ha imparato a proprie spese cosa significa concentrare troppo potere senza adeguati contrappesi.
La disponibilità open access del libro è, di per sé, una dichiarazione politica. In un’epoca in cui l’informazione è spesso recintata dietro paywall, rendere accessibile un’opera di questo tipo significa democratizzare la conoscenza. Un gesto che contrasta con la tendenza delle Big Tech a mantenere opachi i propri modelli e dataset. Trasparenza per gli altri, segretezza per sé. Un classico.
Non mancano, nel testo, esempi concreti di applicazione dell’AI, che aiutano a tradurre concetti teorici in scenari reali. Dalla sanità alla giustizia, passando per il settore finanziario. Ogni caso evidenzia come le stesse tecnologie possano produrre risultati molto diversi a seconda del contesto e delle regole applicate. Una lezione che molti manager sembrano ignorare, convinti che esista una soluzione AI “plug and play”.
In controluce, emerge una verità scomoda: la regolazione dell’AI non è un problema tecnico, ma un problema di governance globale. Le aziende operano su scala internazionale, le normative restano nazionali o, al massimo, regionali. Un disallineamento che crea opportunità per arbitraggio regolatorio, ma anche rischi sistemici. Il manuale non offre soluzioni definitive, ma chiarisce con precisione i termini del problema.
Chi cerca risposte semplici rimarrà deluso. Il valore del libro sta proprio nella sua complessità, nella capacità di mettere in discussione assunti che molti danno per scontati. L’idea che la tecnologia sia neutrale, che l’innovazione sia sempre positiva, che il mercato possa autoregolarsi. Narrazioni comode, ma sempre meno sostenibili.
Nel frattempo, il mondo continua a correre. I modelli diventano più potenti, i dati più abbondanti, le applicazioni più pervasive. La regolazione arranca, come spesso accade. Il rischio è che, quando le regole arriveranno, il gioco sia già stato deciso. Una dinamica già vista in altri settori, dalla finanza ai social media.
Leggere The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence oggi non è un esercizio accademico, ma un atto di lucidità strategica. Significa riconoscere che l’AI non è solo una leva di efficienza, ma un fattore di trasformazione sistemica. Significa accettare che ogni decisione tecnologica ha implicazioni legali ed etiche. Significa, in ultima analisi, prendere sul serio il proprio ruolo in un ecosistema sempre più complesso.
Qualcuno dirà che è un approccio pessimista. In realtà, è semplicemente realistico. L’ottimismo è utile per innovare, ma serve il cinismo per sopravvivere. In un’epoca in cui l’intelligenza artificiale promette di riscrivere le regole del gioco, ignorare il diritto significa, molto banalmente, perdere la partita prima ancora di iniziare.



