FABIO CIOTTI
Un saggio recentemente pubblicato in preprint da Alexander Lerchner (Lerchner 2026), ricercatore di Google DeepMind con ambizioni filosofiche che vanno ben oltre la formazione informatica di partenza, intitolato “The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness” ha attirato una certa attenzione nel dibattito filosofico sulla AI. L’articolo formula una ennesima critica concettuale alla possibilità che un sistema AI possa, in linea di principio, avere o sviluppare una coscienza. Vale la pena precisare subito una premessa: a mio parere, nessuno oggi tra i filosofi, gli scienziati cognitivi, i neuroscienziati e i ricercatori AI (da distinguere dagli informatici in generale) sostiene che un LLM abbia una coscienza fenomenica piena, o almeno quella cosa che chiamiamo in questo modo; al massimo si discute se alcuni dati sperimentali possano far pensare alla presenza di una qualche consapevolezza situazionale o introspettiva, come testimoniano i vari esperimenti in cui i modelli riconoscono di trovarsi in una situazione di test o di valutazione (Lindsay 2025; Lain et al 2024). Pochi sono anche quelli che sostengono che i sistemi artificiali possano effettivamente sviluppare una coscienza in un futuro prossimo (Chalmers 2023), anche perché, tra tutte le facoltà cognitive, la coscienza nella sua versione “hard” è la più difficile da definire e la più sfuggente a evidenze empiriche: come sanno bene i filosofi, l’unica coscienza di cui ogni individuo della nostra specie sembra poter avere esperienza diretta è la propria, poiché di tutti gli altri possiamo solo esperire gli effetti esterni. Ma non mi soffermerò qui su questo conundrum filosofico che ha generato e continua a generare centinaia di paper, libri ed esperimenti.
Torniamo dunque all’articolo di Lerchner. La tesi di fondo è che un sistema artificiale non può avere una coscienza perché il funzionalismo computazionale è falso. Il punto di partenza è l’assunzione che i processi cognitivi e la formazione dei concetti dipendano irriducibilmente dall’esperienza soggettiva della realtà da parte di un cervello biologicamente immerso nel mondo. Detto altrimenti, l’articolo non propone una teoria della coscienza, nonostante il titolo suggerisca il contrario, perché la coscienza è già data come condizione di possibilità, logicamente e causalmente anteriore a qualsiasi concetto, linguaggio, significato, comportamento, computazione. Da questo punto di partenza derivano una serie di argomenti che rischiano di imbattersi nelle aporie già ampiamente evidenziate dalla tradizione filosofica: il teatro cartesiano, i regressi ad infinitum, gli omuncoli. L’argomento è, nella sua ossatura, già presente in Searle (1980), in Dreyfus (1992) e in Block (1978), sebbene Lerchner proponga una teoria sulla natura della computazione che merita di essere discussa nei suoi termini propri, prima di essere inserita in quella genealogia filosofica. Ma in questa sede non intendo esaminare l’intero spettro di argomenti proposti dall’autore, che sono in parte originali e richiederebbero un trattamento più esteso di quanto mi è qui concesso.
Preferisco piuttosto soffermarmi sulla tesi centrale, quella che fa la maggior parte del lavoro argomentativo nell’articolo, a mio parere: la distinzione tra simulazione e istanziazione (Lerchner 2026, p. 5):
- Simulation: The syntactic manipulation of physical vehicles (p) to track the abstract relationship between concepts (A).
- Instantiation: The replication of the intrinsic, constitutive dynamics (P) of the process itself.
L’idea di partenza sembra autoevidente: una simulazione è, ovviamente, una cosa diversa dalla realtà che simula. E infatti questo argomento si ritrova con poche varianti in moltissimi lavori che hanno l’obiettivo di negare o criticare quella che propongo di denominare la ipotesi forte sulla proprietà cognitive degli LLM. Ma qui entra in gioco quella che Dennett (2013) chiamerebbe una pompa di intuizione, ossia un’analogia concettuale che fa appello a intuizioni forti per sostenere una tesi filosofica che non può avere a sostegno evidenze empiriche conclusive. Prendiamo l’esempio che Lerchner propone: una GPU che simula la fotosintesi modella con precisione la trasformazione astratta da luce solare, acqua e anidride carbonica a ossigeno e glucosio, ma non sintetizza una singola molecola di glucosio né rilascia ossigeno reale. Allo stesso modo, un LLM simulerebbe la facoltà di linguaggio, la comprensione, il ragionamento, senza averle realmente. L’analogia è intuitiva e retoricamente efficace; tuttavia, a mio parere non solo essa è fallace, ma il concetto stesso di “simulazione” risulta vuoto quando applicato a fenomeni linguistici e cognitivi.
Il nodo della discretizzazione e dell’alfabetizzazione
Prima di arrivare a questa obiezione centrale, occorre però affrontare il punto più tecnico e, a ben vedere, più originale del contributo di Lerchner rispetto ai predecessori: la distinzione tra discretizzazione e alfabetizzazione. Lerchner osserva che la computazione non è un processo fisico intrinseco già

dato in natura, ma richiede due operazioni di natura ontologicamente distinta. La discretizzazione è un fatto fisico: un transistor si stabilizza in una regione di tensione e questo è già accaduto prima che qualcuno intervenga. L’alfabetizzazione è invece l’atto semantico per cui un agente decide che quella regione di tensione vale “1” e l’altra vale “0”. Il primo passaggio appartiene alla causalità intrinseca del substrato materiale; il secondo richiede un agente cognitivo che estragga invarianti dall’esperienza vissuta e assegni simboli a concetti già costituiti. Poiché la computazione presuppone l’alfabetizzazione, essa presuppone un agente esperienziale, il “mappatore” di Lerchner, e non può pertanto generare da sé la coscienza che essa già richiede come condizione di possibilità.

Questa mossa è più sofisticata del semplice argomento della stanza cinese, e vale la pena riconoscerlo prima di criticarla. Il problema, tuttavia, è che il regresso ad infinitum che Lerchner crede di aver evitato riappare a un livello più profondo. Si può concedere, in via provvisoria, che la distinzione discretizzazione/alfabetizzazione sia fenomenologicamente descrittiva: nella prospettiva di un osservatore umano che progetta un circuito, c’è effettivamente un momento in cui la fisica continua viene “tagliata” in stati discreti e un momento successivo in cui quegli stati vengono investiti di significato. Ma la domanda che l’argomento lascia irrisolta è la seguente: in virtù di quale processo causale il cervello biologico compie questo stesso lavoro senza a sua volta presupporre un ulteriore agente che lo “alfabetizzi”? Lerchner risponde che i concetti sono fisicamente costituiti dall’esperienza vissuta, e dunque non arbitrari, a differenza dei simboli computazionali, che sono assegnazioni esterne. Tuttavia, questa risposta non dissolve il problema: essa lo sposta. Se la coscienza è il processo fisico che alfabetizza il continuo esperienziale in concetti, e se questo processo è esso stesso fisico, occorre spiegare come un processo fisico acquisisca la proprietà di essere “per qualcuno”, ossia come l’alfabetizzazione non sia a sua volta un fatto fisico cieco che richiede un’ulteriore istanza interpretante. In altri termini, la posizione di Lerchner è costretta a postulare che a un certo livello del substrato biologico la coscienza semplicemente emerga dalla fisica senza che sia necessario un ulteriore agente, ma allora non è chiaro perché lo stesso argomento non possa, almeno in linea di principio, applicarsi a substrati non biologici. La biologia non è esclusa esplicitamente da Lerchner come condizione necessaria, ma il suo argomento non fornisce un criterio fisico positivo che distingua i substrati capaci di alfabetizzazione da quelli che non lo sono: si limita a constatare che la computazione non lo fa, senza spiegare perché il substrato biologico sì.

Vale la pena osservare, a questo proposito, che anche i neuroni “discretizzano” potenziali d’azione in soglie di attivazione: la domanda su chi “alfabetizzi” il segnale neuronale si ripropone con identica forza al livello del sistema nervoso. Se la risposta di Lerchner è che l’esperienza soggettiva risolve il problema perché essa è precisamente il processo per cui la fisica diventa significativa, allora l’argomento diventa circolare: la coscienza spiega l’alfabetizzazione, e l’alfabetizzazione biologica dimostra la coscienza. Il regresso non è eliminato; è semplicemente dichiarato terminato a un livello che l’autore considera ontologicamente privilegiato senza darne giustificazione indipendente.
L’asimmetria tra fenomeni fisici e fenomeni linguistici
Il problema con la tesi della simulazione applicata al linguaggio e a molti fatti cognitivi è che l’analogia funziona in modo convincente nel dominio dei fenomeni fisici per una ragione precisa: le proprietà che rendono un fenomeno fisico ciò che è sono, almeno in buona parte, proprietà causali intrinseche al substrato materiale. Una tempesta bagna in virtù delle proprietà fisiche dell’acqua; un’esplosione nucleare distrugge in virtù del rilascio di energia. Il catalogo delle proprietà rilevanti di un fenomeno fisico è intrinsecamente composto da oggetti fisici che interagiscono con l’ambiente in modi specifici. Una simulazione computazionale di questi fenomeni opera su un substrato ontologicamente diverso e, per ciò stesso, necessariamente manca delle proprietà causali che costituiscono il fenomeno.

Quando però si tenta di trasferire questa struttura argomentativa al dominio linguistico, emerge un’asimmetria fondamentale. La natura del linguaggio è di essere linguaggio: il modo in cui il linguaggio produce i propri effetti è di essere usato in un gioco linguistico, per impiegare la terminologia wittgensteiniana (Wittgenstein 1953), ossia in un’interazione comunicativa fatta di parole che vengono scambiate tra i partecipanti. Non esiste nulla di nascosto, previo o più profondo, nei processi linguistici eseguiti da un LLM per la ricerca della soluzione di un problema matematico come i molti che sono stati risolti negli ultimi mesi, che lo rendano, in un senso importante, “non-vero-ragionamento”. Non c’è nessun argomento filosofico che possa giustificare in modo non dualista o misterico frasi come: il ragionamento di un LLM non è vero ragionamento; un modello LLM simula solo il ragionamento ma non fa vero ragionamento (e cos’è il vero ragionamento?); un LLM simula la comprensione; un LLM opera solo una simulazione del linguaggio ma non ha vero linguaggio; un LLM è come un modello meteorologico che simula un temporale, ma mica bagna veramente, quindi nemmeno il LLM capisce veramente; la mappa non è il territorio (ma in quale territorio cresce il linguaggio? e il significato? e da quali piante?).
Non esiste un equivalente della “pioggia che bagna” nel caso della comprensione linguistica, un di più fisico importante e empiricamente accertabile. La comprensione non possiede proprietà fisico-causali intrinseche di cui una simulazione sarebbe necessariamente priva. Se la comprensione si manifesta nell’uso appropriato delle parole durante una conversazione, nella capacità di partecipare adeguatamente ai giochi linguistici, non è chiaro che cosa significhi “simulare” la comprensione in modo distinto dall’esercitarla.
È cruciale sottolineare ciò che gli argomenti scettici non stanno affermando, onde evitare fraintendimenti sulla portata della critica qui sviluppata. Non si sta dicendo che, in un’occasione specifica del gioco linguistico, gli LLM abbiano capito male, cosa che accade del resto anche ai parlanti umani. Non si sta neppure dicendo che gli LLM fingano di capire, come può accadere a uno studente di fronte a un professore. La tesi della simulazione (di cui il testo di Lerchner rappresenta una versione ambiziosa applicata alla coscienza, ma che coinvolge tutte le facoltà cognitive) è più radicale: che un LLM intrinsecamente simuli la comprensione, indipendentemente dalla qualità della performance. Tuttavia, questa posizione non fornisce alcun criterio positivo per distinguere, in via generale, la “vera” comprensione dalla “falsa”. La distinzione simulazione/istanziazione, applicata al linguaggio, è introdotta come ontologicamente necessaria ma resta operativamente vuota: non indica nessun esperimento, nessuna evidenza, nessun esito comportamentale che possa in linea di principio discriminare tra le due categorie. E anche se un domani fossimo in grado di mappare ogni singolo processo bio-neurale che porta a profferire una parola, e potessimo confrontarlo con i processi elettro-computazionali di una mente artificiale, questo non costituirebbe di per sé una differenza che fa la differenza: per quanto attiene al comprendere, ciò che conta è che io comprenda abbastanza di quanto dite voi e viceversa, abbastanza da poter andare avanti nella conversazione e nella cooperazione sociale.
Riferimenti bibliografici
Block, Ned. 1978. “Troubles with Functionalism.” Minnesota Studies in the Philosophy of Science 9: 261–325.
Chalmers, David J. 2023. “Could a Large Language Model Be Conscious?” Boston Review, August 9, 2023. https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/.
Dennett, Daniel C. 2013. Intuition Pumps and Other Tools for Thinking. New York: W. W. Norton & Company.
Dreyfus, Hubert L. 1992. What Computers Still Can’t Do: A Critique of Artificial Reason. Edizione riveduta. Cambridge, MA: MIT Press.
Lerchner, Alexander. 2026. “The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness.” Preprint. PhilPapers. https://philpapers.org/rec/LERTAF.
Searle, John R. 1980. “Minds, Brains, and Programs.” Behavioral and Brain Sciences 3 (3): 417–457.
Laine, Rudolph, Bilal Chaudhry, Tomek Korbak, John Hughes, Robert Long, Ethan Perez, and Owain Evans. 2024. “Me, Myself, and AI: The Situational Awareness Dataset (SAD) for LLMs.” In Advances in Neural Information Processing Systems 37. https://situational-awareness-dataset.org.
Lindsey, Jack. 2025. “Emergent Introspective Awareness in Large Language Models.” Transformer Circuits Thread, October 29. https://transformer-circuits.pub/2025/introspection/index.html.
Wittgenstein, Ludwig. 1953. Philosophical Investigations. Traduzione di G. E. M. Anscombe. Oxford: Basil Blackwell.



