Parlare di intelligenza artificiale oggi è un esercizio ambivalente: da un lato si evocano scenari apocalittici, dall’altro modelli che “aiuteranno l’umanità” fino al paradiso digitale. In Intelligenze. Etica e politica dell’IA De Caro e Giovanola optano per un approccio intermedio: né catastrofismo ingenuo né ottimismo tecnicistico acritico.

Senza mai liquidare la posta in gioco, propongono la “natura aperta” dell’AGI come metafora della contingenza conoscitiva: non sappiamo se, quando e come emergerà una vera intelligenza artificiale generale (AGI), né se da essa potrà nascere o meno una superintelligenza artificiale (ASI). Questa incertezza è il cuore etico e politico del ragionamento e da qui partiamo.
Disaccordi tra esperti: allarmisti vs scettici
I sostenitori del rischio estremo (spesso definiti “allarmisti”) includono figure di peso come Stephen Hawking, Geoffrey Hinton, Bill Gates, Nick Bostrom. Secondo loro, la Superintelligenza potrebbe non solo soppiantare o superare l’intelligenza umana, ma diventare il “termine ultimo” della storia: se non controllata, rischia di essere la minaccia esistenziale suprema. In questo scenario la creazione dell’IA potrebbe essere l’ultimo evento dell’umanità, a meno che non si mettano in atto precautionary measures estremamente stringenti.
Alla controparte, gli scettici (o moderati forse frenati da Leonardo) come Luciano Floridi o Maurizio Ferraris dissentono radicalmente da questa visione. Floridi arriva a definire l’espressione “Intelligenza Artificiale” un’ossimoro: se qualcosa è artificiale, non può essere intelligente nel senso pieno del termine.
Ferraris, analogamente, è restio ad attribuire alla macchina una soggettività crescente preferendo leggere l’IA come un insieme di processi tecnici, non come ente emergente. Per questi autori, le catastrofi superintelligenti sono fantasie teoriche, non rischi concreti da vivere come imminenti.

De Caro e Giovanola, in equilibrio, rilevano che nessuno dei due schieramenti possiede argomenti a priori sufficienti. Non è questione risolvibile sul piano concettuale: la questione è empirica. Possiamo dare pareri razionali, valutare modelli probabilistici, ma non possiamo escludere né assicurarci che emerga un soggetto inintelligibile alla natura umana. Da qui la proposta del principio di precauzione: non perché siamo certi che la superintelligenza avverrà, ma proprio perché non possiamo escluderlo con sicurezza e il potenziale danno è enorme. L’apertura della “natura aperta” è tutt’altro che passiva: è un invito alla vigilanza e alla governabilità.
Il problema della comprensione: la stanza cinese reloaded
Se persino il problema dell’intelligenza generale appare incerto, la questione della comprensione semantica resta un nocciolo filosofico. L’argomento della stanza cinese di John Searle continua a sedurre e irritare: una macchina può manipolare simboli (sintassi), ma non può comprendere (semantica). Questo è il nocciolo dell’argomento contro la “strong AI” (l’IA forte) secondo Searle.
Le obiezioni al suo ragionamento sono tre, e De Caro / Giovanola le riprendono con gusto filosofico:
Chauvinismo ontologico: l’errore di trattare la mente umana come unica sorgente possibile di coscienza o comprensione. Searle sembra presupporre che solo la biologia organica (carbon-based) possa dare origine a coscienza ma questa è una chiusura concettuale, non una legge scientifica.
Criterio comportamentale: se una macchina risponde coerentemente, contestualmente e “intelligentemente” a ogni domanda (oltrepassando il test di Turing), allora per coerenza attribuiamo comprensione. L’atteggiamento comune con gli esseri umani è un giudizio tramite comportamento, non tramite introspezione sul “meccanismo interno”.
Sistema totale / emergentismo funzionalista: la comprensione non appartiene solo all’elemento distintivo (la CPU) ma all’intero sistema: hardware + software + memoria + interazioni. In questa visione, la “mente” è distribuita.
Quando guardiamo agli LLM (large language models), il test di Turing appare superato (almeno in molti contesti), ma resta controverso se la mera simulazione conversazionale equivalga a comprensione reale.
De Caro e Giovanola respingono la banalizzazione che gli LLM siano solo “pappagalli stocastici” (come sostenuto da Bender et al.): piuttosto, sono sistemi predittivi complessi che generano risposte coerenti. Con l’avvento dei modelli multimodali (testo + immagini + suono) il divario tra linguaggio e mondo reale pur non annullato tende a ridursi.
Creatività artificiale: dal plagio al paradosso estetico
La questione della creatività artificiale è spesso la battaglia simbolica più suggestiva: può una macchina creare opere d’arte, inventare metafore, innovare? Tradizionalisti come Chomsky e altri critici sostengono che i modelli post simbolici siano meri motori statistici: banalmente rimescolano frammenti del corpus su cui sono stati allenati, senza produrre nulla di genuinamente originale o intenzionale. In altri termini: “plagio hi-tech”.
De Caro e Giovanola rilanciano evocando il caso di AlphaZero (modello di deep learning applicato agli scacchi): con meno esplorazione combinatoria rispetto a programmi tradizionali come Stockfish, AlphaZero domina grazie a “intuizione strategica” e posizioni creative, che per un osservatore umano appaiono geniali. Questo mostra che la creatività non è esclusiva del pensiero umano.
Per analizzare “quanto creatività” un’IA possa avere, il libro adotta la distinzione di Margaret Boden:
Creatività combinatoria: combinare elementi noti in nuove disposizioni (es. Arcimboldo). L’IA può farlo con facilità.
Creatività esplorativa: esplorare uno spazio creativo definito (come generare variazioni armoniche a partire da un tema). Alcune IA già lo fanno dignitosamente.
Creatività trasformazionale: rompere i vincoli dello spazio creativo e ridefinire le regole stesse (come Caravaggio fece con la luce). Questa è ancora un territorio in gran parte inesplorato per le IA.
Il paradosso estetico scatta quando un’intelligenza artificiale produce testi poetici (pensate a GPT-4o con quartine petrarchesche indistinguibili da quelle umane) più apprezzati dal pubblico rispetto a un autore “reale”. Come si può conciliare un lavoro poetico senza coscienza, intenzionalità o desiderio artistico? Si ha “creazione senza creatore”: un problema filosofico e morale.
Equità algoritmica, giustizia sociale e limiti tecnici del bias
Tra i capitoli più densi e urgenti, De Caro e Giovanola dedicano ampio spazio al tema della equità algoritmica. Il modo dominante di affrontare la discriminazione algoritmica è spesso tecnico: metriche come demographic parity, equalised odds sono usate come target da ottimizzare. Tuttavia, i bias non sono semplici errori da correggere: emergono da ingiustizie strutturali, da relazioni di potere, da storie sociali. Eliminare un bias statistico non garantisce giustizia.
Gli autori precisano che non tutti i bias sono moralmente dannosi: alcuni servono a proteggere minoranze vulnerabili. In più il “bias by proxy” è particolarmente subdolo: quando si usa come feature un dato correlato (es. spesa sanitaria passata) che riflette disparità storiche, si perpetua l’ingiustizia. In questo contesto, l’equità non può essere semplicemente automatizzata.
La proposta chiave è un concetto di equità positiva, articolato su tre pilastri:
Equa uguaglianza di opportunità: non basta trattare tutti allo stesso modo, serve ridurre le disuguaglianze di punto di partenza (compensare svantaggi strutturali).
Diritto alla giustificazione: gli utenti hanno diritto di comprendere (in linguaggio umano) come un algoritmo è arrivato a una decisione.
Equa uguaglianza di relazione: il design algoritmico deve favorire interazioni paritarie e relazioni rispettose, non subordinazione tecnica dell’utente.
Alla luce di ricerche filosofiche recenti (per esempio Fairness in Machine Learning: Lessons from Political Philosophy di Reuben Binns) emerge che le metriche tecniche incorporano già assunzioni etiche (che cosa significa discriminazione, quale danno va minimizzato).
Inoltre Iason Gabriel, nel suo Toward a Theory of Justice for Artificial Intelligence, argomenta che le norme di giustizia distributiva dovrebbero applicarsi ai sistemi socio-tecnici, includendo i sistemi IA come parte della “struttura di base” della società. Un algoritmo decisionale non è neutrale: plasma risultati distributivi e potere sociale.
Privacy, consenso e il fallimento del paradigma autogestito
Il libro affronta con scavo critico la crisi del paradigma del consenso, attualmente dominante nelle norme sulla privacy: secondo questo paradigma, l’utente decide autonomamente quali dati concedere, e in che misura. Ma in realtà nessuna delle condizioni per un vero consenso è rispettata:
Informazione sufficiente: le privacy policy oggi sono lunghe, cambiano di frequente e difficili da comprendere (alto costo di transazione).
Prevedibilità degli esiti: con tecniche avanzate (inferenziali, deduttive), è impossibile anticipare tutti gli usi futuri dei dati (e le inferenze che ne verranno tratte).
Competenza e preferenze stabili: molti utenti non hanno le competenze per valutare i rischi, e le loro preferenze cambiano rapidamente.
Libertà e intenzionalità: la scelta è spesso manipolabile, influenzata da nudging sottili o progettazione persuasiva.
De Caro e Giovanola introducono il concetto di privacy intellettuale: uno spazio di protezione che consente all’individuo di formarsi idee, opinioni e rappresentazioni senza che esse siano manipolate da sistemi che anticipano o guidano il pensiero.
Il capitalismo della sorveglianza non si limita a prevedere: tenta di orientare, modellare e automizzare il comportamento. In questo contesto la privacy muta da diritto negativo (non essere spiati) a diritto positivo (resistenza cognitiva, spazio di autodeterminazione). Questo rende urgente non solo regole legali, ma infrastrutture tecnologiche e culturali che difendano l’autonomia cognitiva.
Spunti critici, accelerazioni tecnologiche e implicazioni politiche
L’impianto di Intelligenze è ambizioso: convoglia filosofia morale, teoria politica, studi dell’IA in un pensiero unitario. Ma alcune sfide restano sullo sfondo. Ad esempio: come integrare questa riflessione con le politiche pubbliche? Quali forme di governance dell’IA (ai livelli europeo, nazionale, municipale) possono incarnare concretamente il principio di precauzione e l’equità positiva?
I 23 Principi di Asilomar per l’IA benefica sono un punto di riferimento storico nel dibattito internazionale sul governo dell’IA Ma serve un salto verso istituzioni effettive, controlli reali, audit indipendenti, associazioni civiche che possano intervenire come contrapotenzi tecnici. Il rischio è che, in assenza di comportamenti progettuali consapevoli, la macchina “ci pensa per noi” delega cognitiva.
Un altro punto è l’accelerazione tecnologica: i modelli LLM, i sistemi multimodali, i progressi hardware tutto sta cambiando velocemente. Entro pochi anni il “gap epistemico” potrebbe ridursi al punto che le ipotesi più pessimiste o ottimiste diventino visioni concrete. Nel frattempo, la filosofia deve mantenere la tensione critica, non farsi assorbire dal presente.
Restano domande formative: come coltivare “virtù digitali” negli individui (e nei team tecnici)? De Caro e Giovanola evocano modelli aretici, dove la saggezza pratica diventa parte dell’alfabetizzazione tecnologica. In un contesto dove chi sa costruire algoritmi ha potere, l’educazione etica agli algoritmi non è facoltativa: è strategica.
Nel mezzo di queste tensioni, stoici e provocatori, emerge un’idea centrale: non possiamo sapere se emergerà un soggetto computazionale supremo, ma possiamo costruire (oggi) condizioni sociali, istituzionali e tecniche che evitino che il rischio catastrofico diventi realtà. La “natura aperta” dell’AGI non è un alibi per la rinuncia al controllo, ma l’invito a un’impresa culturale radicale: progettare sistemi nell’orizzonte dell’etica, non solo dell’efficienza.



