Lorenzo Redaelli
Recentemente mi sono imbattuto in un contributo di Francesco D’Isa, poi ripubblicato anche su questo blog, sull’intelligenza delle macchine, che merita attenzione, non solo per l’equilibrio del ragionamento, ma perché mette a fuoco con onestà il nodo centrale di un dibattito che nel discorso pubblico rischia continuamente di perdersi. D’Isa riconosce le capacità reali dei modelli linguistici senza trionfalismi, concede i limiti senza sminuire, critica giustamente chi sposta i criteri ogni volta che una macchina supera una soglia prestazionale. Vale la pena partire da lì per aggiungere qualche elemento che, a mio avviso, aiuta a capire perché questo dibattito sia così difficile da condurre e così facile da fraintendere.
Il problema, prima ancora che filosofico, è semiotico. Quando diciamo che una macchina è intelligente, usiamo un segno, ‘intelligenza’, che ha un significante riconoscibile e un significato apparentemente condiviso. Ma il referente, ovvero la cosa nel mondo a cui il segno si riferisce, non è lo stesso nei due casi. Questa distinzione viene da Peirce, che a differenza di Saussure costruisce un modello triadico del segno: il representamen, l’oggetto nel mondo e l’interpretante, con il punto di partenza della semiosi ancorato nella realtà esterna. Lo stesso segno ‘intelligenza’ può dunque rimandare a oggetti dinamici radicalmente diversi a seconda del contesto, e nel dibattito pubblico questo non viene quasi mai detto esplicitamente. Umberto Eco, riprendendo Peirce nel suo modello enciclopedico del significato, ha mostrato che i termini non funzionano come voci di dizionario con definizioni fisse, ma come reti di unità culturali interconnesse che si attivano contestualmente. Quando usiamo la parola intelligenza attiviamo automaticamente una rete di connotazioni legate all’esperienza umana: corpo, intenzionalità, esperienza vissuta, coscienza. Trasportare questa rete sulle macchine senza dichiararlo è già un errore interpretativo prima ancora di aprire il dibattito. Roland Barthes ha mostrato il meccanismo complementare: i segni culturali tendono a naturalizzarsi, a presentarsi come ovvi e universali quando invece portano con sé i contesti storici in cui sono nati. Intelligenza sembra una categoria neutra e misurabile. Non lo è. È un termine che gli esseri umani hanno costruito per descrivere qualcosa che riconoscevano in se stessi, nelle proprie esperienze di comprensione, di adattamento, di risoluzione di problemi. Quando lo trasferiamo alle macchine senza ridefinirlo, non stiamo descrivendo qualcosa di nuovo: stiamo proiettando una categoria nata altrove. Il risultato è che nel discorso pubblico si discute animatamente di qualcosa che non è stato definito con precisione, e le posizioni diventano irriducibili non perché il problema sia intrattabile, ma perché i parlanti usano la stessa parola per cose diverse.
Il Prof. Mario De Caro ha affrontato questo tema in una recente intervista a Pandora Rivista, richiamando la legge di Tesler: l’intelligenza è tutto ciò che le macchine non sanno ancora fare. È un aforisma ironico, ma dice qualcosa di preciso: il criterio viene spostato ogni volta che la soglia viene raggiunta, il che suggerisce che il problema non sia nelle macchine ma nel modo in cui usiamo il termine. De Caro si riferisce a Wittgenstein per aprire alla possibilità che le macchine comprendano: ciò che conta non è il substrato interno ma la capacità di seguire correttamente le regole nel linguaggio pubblico. È una posizione estremamente seria. È anche vero, però, che la stessa tradizione wittgensteiniana può essere letta in direzione opposta: i concetti vivono dentro forme di vita specifiche, e intelligenza è nata dentro una forma di vita umana incarnata, fatta di corpo, di esperienza vissuta, di aggancio causale al mondo fisico. Non è ovvio che si trasferisca altrove senza perdere qualcosa di essenziale.
È esattamente questo il punto su cui Luciano Floridi insiste quando parla di grounding: un sistema che elabora simboli senza un aggancio causale e incarnato al mondo fisico opera in un regime cognitivo strutturalmente diverso dal nostro. Non è necessariamente inferiore in tutto, ma è diverso in modo qualitativo, non di grado. La tradizione che va da Turing a Searle illumina la questione da un’altra angolatura. Turing nel 1950 proponeva un criterio comportamentale puro: se una macchina conversa in modo indistinguibile da un essere umano, possiamo considerarla intelligente. Trent’anni dopo Searle rispose con la stanza cinese: un sistema può produrre output corretti seguendo regole formali senza capire nulla di ciò che elabora. La prestazione c’è, la comprensione no. Il dibattito tra le due posizioni non si è chiuso, ma ha chiarito che la domanda “le macchine sono intelligenti?” dipende interamente da cosa intendiamo per intelligenza, e che questa non è una questione secondaria.
La letteratura scientifica recente aggiunge un elemento empirico che aiuta a capire perché la distinzione non sia solo filosofica. Un paper pubblicato nel febbraio 2026 da ricercatori del MIT ha testato cosa succede quando, in una conversazione multi-turno con un LLM, si rimuovono le risposte precedenti del modello dal contesto. Il risultato è controintuitivo: nella maggior parte dei casi la qualità delle risposte non peggiora, e in molti casi migliora. I modelli tendono a sovra-condizionarsi sui propri output passati, propagando errori, parametri sbagliati, inerzia stilistica. I ricercatori chiamano questo fenomeno “context pollution”. Un essere umano che ragiona in più passaggi su un problema tende a beneficiare del proprio ragionamento precedente, a correggersi, a costruire. Un LLM in condizioni reali rischia, in certi casi, di essere sabotato dai propri output passati. Non è una questione di quantità di intelligenza: è una questione di struttura, di come funziona la cognizione nel tempo. Questo paper non parla di coscienza né di comprensione: parla di una caratteristica tecnica specifica dei modelli linguistici che mostra come il loro profilo cognitivo sia qualitativamente diverso da quello umano, non semplicemente scalato.
Sul tema della coscienza, Anthropic ha pubblicato nell’ottobre 2025 una ricerca del proprio team di interpretabilità che è stata spesso citata a sproposito nel dibattito pubblico. Il paper studia se i modelli abbiano una qualche forma di accesso ai propri stati interni, iniettando rappresentazioni di concetti direttamente nelle attivazioni e misurando se il modello riesce a rilevarle. I risultati mostrano che i modelli più capaci riescono in certi scenari a rilevare queste manipolazioni. Ma il termine che i ricercatori usano sistematicamente, e non per caso, è functional introspective awareness: consapevolezza introspettiva funzionale. I ricercatori sono espliciti nel precisare che i risultati non implicano alcuna conclusione sulla coscienza dei sistemi studiati (eppure proprio quel paper è stato utilizzato per affermare il contrario). La parola funzionale non è un dettaglio accessorio: è la presa di distanza esplicita da qualsiasi claim sulla coscienza. Un sistema che si comporta come se avesse accesso ai propri stati interni non è necessariamente un sistema che ha esperienza soggettiva di quegli stati.
Una delle domande che dovremmo porci è, dunque, se quando parliamo di intelligenza stiamo guardando ai risultati o al processo. Se ci riferiamo a quest’ultimo, è ovvio che il processo che le macchine utilizzano per arrivare allo stesso risultato dell’essere umano è profondamente diverso, perché cambia in primo luogo l’hardware. Paradossalmente, dei modelli di linguaggio possiamo dire esattamente come arrivino ad un risultato, il meccanismo statistico della tokenizzazione, su come ci arrivi il cervello umano abbiamo ancora dei ragionevoli dubbi, non assoluti, ma legati al progresso attuale delle neuroscienze. Eppure è il processo umano che usiamo come misura implicita quando valutiamo quello delle macchine. Anche questa distinzione tra risultato e processo è dunque una questione di lessico prima che di tecnica, e il fatto che la confondiamo sistematicamente è parte dello stesso problema semiotico che attraversa tutto il dibattito.
Pertanto, il rischio di confusione terminologica non è, a mio avviso, affatto innocente. Vale la pena forse tornare a Protagora, prima ancora che a Wittgenstein, in un certo senso. Se usiamo infatti qualità nate dentro l’esperienza umana per misurare sistemi radicalmente diversi, senza interrogarci su questo trasferimento, commettiamo un errore di metodo prima ancora che di merito. Non stiamo misurando le macchine: stiamo proiettando su di loro una misura che è nata altrove. E chi controlla la definizione di intelligenza, controlla implicitamente anche il giudizio su cosa meriti attenzione, tutela, governance. De Caro stesso, e anche D’Isa, lo dicono chiaramente: il problema non è solo se le macchine siano intelligenti, ma chi controlla quella intelligenza, a quali fini viene orientata e secondo quali regole collettive viene governata. È su questo terreno, politico e istituzionale, che il dibattito ha conseguenze concrete. E per arrivarci con chiarezza, è necessario prima costruire un lessico più preciso di quello che circola oggi nel discorso pubblico. Una tecnologia che sta ridefinendo il lavoro, la conoscenza, la democrazia e i rapporti di potere merita un dibattito all’altezza della sua portata: e un dibattito all’altezza comincia dalle parole che si scelgono per condurlo.
Lorenzo Redaelli



