Scrivere di intelligenza artificiale senza passare dal lavoro di Diego Marconi sarebbe come discutere di economia ignorando Adam Smith. La distinzione tra macchine calcolatrici e intelligenza, che Marconi ha esplorato con rigore quasi chirurgico, continua a tormentare chiunque si occupi di tecnologia avanzata. Vale la pena spingersi dentro questo territorio scivoloso dove algoritmi perfettamente deterministici vengono scambiati per forme di pensiero e dove la retorica del miracolo digitale si scontra con l’evidenza che non tutto ciò che calcola comprende davvero.
Capita spesso di osservare dirigenti entusiasti proclamare che una rete neurale “capisce”, come se un algoritmo potesse svegliarsi una mattina e scoprire di essere in ritardo per una riunione. È una leggerezza concettuale che Marconi avrebbe trattato con quella sobrietà severa tipica dei filosofi analitici. La sua riflessione nasce da una domanda che appare semplice solo ai distratti. Che cosa distingue una macchina calcolatrice, capace di manipolare simboli con efficienza impeccabile, da un sistema intelligente che quei simboli li comprende davvero. La risposta non si cattura con qualche formula elegante, perché tocca lo snodo tra sintassi e semantica, argomento che affascina tanto quanto spaventa chi preferirebbe pensare all’AI come a un motore di efficienza illimitata.
Capisco bene la tentazione di vedere nell’intelligenza artificiale una scorciatoia epica verso un futuro iperautomatizzato. Succede anche ai CEO più smaliziati. Perché i modelli generativi, con la loro smisurata capacità predittiva, danno l’impressione di aver raggiunto una forma di pensiero. Marconi, al contrario, ci ricorda che non basta generare frasi plausibili per affermare di possedere una teoria della mente. È un avvertimento che oggi suona quasi provocatorio. Se un sistema non collega ciò che produce a un’esperienza del mondo, a un corpo, a una percezione diretta, allora resta confinato in una manipolazione simbolica. Si direbbe un mago abile che ha però dimenticato il trucco principale, quello che trasforma un’azione meccanica in comprensione.
La rincorsa globale a definire l’intelligenza artificiale come “cognitiva” ha infatti generato un fraintendimento comodo. Tutto ciò che imita abilmente un comportamento intelligente viene promosso al rango di mente. È un salto logico che Marconi avrebbe smontato con ironia calibrata, ricordandoci che la computazione può essere necessaria all’intelligenza, ma non è di certo sufficiente. La differenza tra calcolare e comprendere non è un vezzo accademico. Impatta direttamente sulla nostra capacità di progettare sistemi che non solo rispondano, ma sappiano interpretare contesti mutevoli, ambigui, a volte persino contraddittori.
Non è un caso che la filosofia del linguaggio sia uno dei territori più preziosi per esplorare l’intelligenza artificiale. Marconi insisteva sul fatto che il significato non è un’etichetta appiccicata su un simbolo. Il significato nasce da un uso, da una pratica, da un contesto. Una macchina calcolatrice tradizionale opera dentro un universo chiuso, dove ogni simbolo è determinato da regole prestabilite. Le AI moderne sembrano muoversi in uno spazio più ampio, ma restano comunque vincolate a pattern statistici estratti dai dati, non a un’esperienza diretta del mondo. Il risultato è un’intelligenza che appare solida ma poggia su un terreno sorprendentemente instabile. Basta un contesto leggermente fuori schema per rivelare la fragilità del modello.
Molti considerino la coscienza un dettaglio superfluo. La si tratta come una questione da bar, mentre Marconi avrebbe ricordato che ignorare la coscienza nella discussione sulle macchine intelligenti equivale a ignorare l’acqua quando si parla di oceani. Le macchine calcolatrici non hanno un punto di vista sul mondo. Non hanno intenzioni, desideri, motivazioni. Non possono essere chiamate a rispondere di ciò che fanno, non perché siano irresponsabili, ma perché il concetto stesso di responsabilità richiede un soggetto. I sistemi artificiali compiono operazioni. Gli esseri intelligenti compiono azioni.
Più le AI diventano sofisticate, più aumenta la confusione su cosa significhi essere intelligenti. Ciò che un tempo sembrava impossibile per una macchina, come scrivere un testo articolato o riconoscere un volto, ora appare banale. Ogni volta che l’AI conquista un nuovo territorio, l’intelligenza viene ridefinita per salvaguardare il primato umano. È un gioco psicologico collettivo che racconta più di noi che delle macchine. La riflessione di Marconi funziona come antidoto contro questa oscillazione continua, ricordandoci che l’intelligenza non è un trofeo da difendere, ma un fenomeno da comprendere.
Mentre le imprese corrono a integrare modelli predittivi in ogni snodo dei propri processi, pochi si soffermano sulla domanda strutturale. Quale tipo di intelligenza stiamo davvero implementando. Perché un conto è ottimizzare, un altro è capire. Una macchina può prevalere sul piano computazionale senza possedere alcuna forma di consapevolezza. Può supportare decisioni strategiche senza percepire il peso di quelle decisioni. È un assistente, non un soggetto. Marconi avrebbe sottolineato che una macchina calcolatrice, anche la più avanzata, è una protesi cognitiva, uno strumento che amplifica capacità umane ma non le sostituisce.
Sorge un paradosso affascinante. Nel momento stesso in cui l’intelligenza artificiale si avvicina alle prestazioni umane, diventa sempre più evidente quanto sia difficile replicare ciò che di umano c’è nell’intelligenza. La capacità di contestualizzare, ironizzare, sbagliare in modo creativo, adattarsi a situazioni imprevedibili, leggere segnali impliciti, tutti aspetti che una macchina affronta con un’eleganza solo apparente. Marconi avrebbe osservato che imitare l’intelligenza non equivale a possederla. Ciò che sembra comprensione è spesso un’impressionante compressione statistica del passato.
Si ha quasi l’impressione che le macchine calcolatrici moderne vivano in una eterna adolescenza cognitiva. Brillanti nelle prestazioni, acerbe nella comprensione. Sono eccellenti esecutrici, sempre più utili e sempre più presenti, ma prive della scintilla che trasforma un processo in un’idea. Marconi ci invita a mantenere lo sguardo lucido su questa distanza, non per sminuire i progressi dell’AI, ma per valorizzarli senza attribuire loro un’aura mistica.
In fondo, l’errore più grande sarebbe credere che il confine tra calcolo e intelligenza sia un dettaglio teorico. È un tema che determina come progetteremo le prossime generazioni di sistemi, quali responsabilità attribuiremo alle macchine, quale ruolo daremo all’umano dentro una società governata da algoritmi. L’intelligenza artificiale non è un oracolo, è un insieme sofisticato di tecnologie nate per amplificare la nostra capacità di elaborare informazioni. La filosofia di Marconi funziona come bussola per navigare in questo nuovo panorama, ricordando che la distinzione tra manipolazione simbolica e comprensione rimane fondamentale.

