commento di Rivista.AI a articolo Mario De Caro Tutto Libri Orizzonti
L’intelligenza artificiale non è intelligente. Ed è proprio questo il punto che molti board, investitori e policy maker continuano a ignorare mentre corrono dietro alla narrativa dell’AGI come se fosse una inevitabile divinità tecnologica. La riflessione filosofica contemporanea, da Luciano Floridi a Mario De Caro, smonta con precisione chirurgica l’equivoco semantico che domina il mercato: stiamo costruendo sistemi potentissimi di calcolo probabilistico, non menti artificiali.
Il problema non è accademico. È strategico. È industriale. È geopolitico.
Quando un’azienda parla di “autonomia dell’AI”, in realtà sta descrivendo un’autonomia progettata, limitata, delegata. Non esiste volontà, non esiste coscienza, non esiste intenzionalità. Esiste ottimizzazione statistica su scala industriale. Confondere queste dimensioni porta a errori enormi nella governance aziendale e nella regolazione pubblica.
Il paradosso è evidente: più l’AI diventa centrale nei processi decisionali, più aumenta la responsabilità umana, non diminuisce. Eppure la narrativa dominante suggerisce il contrario, quasi fosse conveniente trasferire la responsabilità alle macchine per ridurre il rischio reputazionale. Un’illusione pericolosa.
La vera domanda non è quanto l’AI sia avanzata, ma quanto la governance dell’AI sia matura. Audit algoritmici, trasparenza dei modelli, qualità dei dataset, accountability decisionale. Questi sono i nuovi KPI invisibili della trasformazione digitale. Non il numero di prompt generati o le licenze software acquistate.
Un altro aspetto spesso ignorato è che l’AI è infrastruttura, non solo software. Energia, data center, supply chain dei chip, modelli proprietari. Chi controlla queste infrastrutture controlla l’architettura cognitiva della società digitale. Non in senso fantascientifico, ma in senso economico e informazionale.
La vera disruption non è tecnologica. È epistemologica. Stiamo delegando sempre più funzioni cognitive a sistemi che non comprendono il mondo, ma lo simulano. E simulare comprensione non equivale a comprendere.
Il rischio quindi non deriva da una presunta coscienza delle macchine, ma dagli usi sociali, politici e organizzativi che ne facciamo. Deepfake, disinformazione, automazione opaca, decisioni algoritmiche non auditabili. Non è l’AI a diventare pericolosa. È la nostra governance a diventare insufficiente rispetto alla velocità tecnologica.
L’Europa, con il suo approccio regolatorio, potrebbe trasformare questo scenario in un vantaggio competitivo strutturale. Meno hype, più responsabilità. Meno mitologia tecnologica, più etica operativa.
In un mercato saturo di storytelling sull’intelligenza artificiale, la vera leadership consiste nel riconoscere un fatto semplice e scomodo: l’AI non sostituisce l’intelligenza umana, la amplifica, la distorce e la rende scalabile.
E questo significa una sola cosa.
La qualità delle decisioni future dipenderà molto meno dagli algoritmi e molto di più dalla lucidità strategica di chi li governa.


