Università Roma Tre Sala Consiglio Torre A: IA e coscienza (implicazioni) 4 Dicembre, 14:30 – 15:30
Speaker: Massimo Chiriatti (Università Cattolica del Sacro Cuore, Milano)
Speaker: Marianna Ganapini (University of North Carolina & Union College)
Speaker: Alessio Plebe (Università di Messina)
Chair: Andrea Velardi (Università Niccolò Cusano)
Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.
Le ricerche di Ganapini esplorano un terreno cruciale: il punto in cui la psicologia cognitiva incontra l’ingegneria dell’intelligenza artificiale. Insieme a colleghi come Francesca Rossi e Nicholas Mattei, ha introdotto un’idea che va oltre la classica opposizione uomo/macchina: la collaborazione cognitiva. Il progetto FASCAI (Fast and Slow Collaborative AI) parte da una domanda quasi socratica: se l’essere umano ragiona a due velocità, con un pensiero rapido e intuitivo e uno lento e riflessivo, perché l’AI non dovrebbe fare lo stesso?
Daniel Kahneman lo aveva spiegato con brutale semplicità. Il “System 1” è l’intuito, la scorciatoia, la reazione istantanea che ci salva la vita o ci fa commettere errori banali. Il “System 2” è la lentezza ragionata, l’analisi, la verifica. L’idea di Ganapini è di trasporre questa architettura nel mondo delle macchine. Il risultato è un modello che unisce nudging cognitivo e decisioni metariflessive: un’intelligenza artificiale che non impone scelte, ma stimola il ragionamento umano, dosando il livello di coinvolgimento in base ai valori del contesto. Non una macchina che pensa al posto nostro, ma una che ci spinge a pensare meglio.
Nella visione di Ganapini, il valore non è un accessorio ma una variabile strutturale. L’AI non è neutrale, perché ogni decisione incorpora un sistema di priorità. L’architettura FASCAI usa questi valori — qualità decisionale, velocità, sicurezza, autonomia umana — come parametri dinamici che orientano il modo in cui la macchina “spinge” l’umano verso il pensiero veloce o lento. È una filosofia del nudging algoritmico che trasforma la persuasione in collaborazione. Se il sistema riconosce che l’essere umano sta per prendere una decisione errata, può intervenire con una raccomandazione istantanea (System 1). Se, invece, il contesto richiede riflessione e analisi, la macchina introduce un ritardo intenzionale, costringendo la persona a confrontarsi con la propria idea prima di vedere la proposta dell’AI (System 2). Infine, il livello più sofisticato è quello metacognitivo: la macchina chiede all’umano se desidera ricevere un suggerimento, spingendolo a riflettere sulla propria sicurezza cognitiva.
Dietro questa eleganza concettuale si nasconde un messaggio inquietante. L’intelligenza artificiale può “guidare” il pensiero umano tanto quanto noi possiamo guidare lei. La differenza sta nel grado di consapevolezza: noi possiamo riflettere sull’influenza, la macchina no. La metacognizione, cuore della vera intelligenza scientifica, è ancora un’esclusiva biologica. È ciò che consente allo scienziato di dubitare della propria ipotesi, di riconoscere un errore, di cambiare rotta. Finché l’AI non avrà la capacità di dubitare di sé, le sue “scoperte” saranno solo risultati statistici travestiti da illuminazioni.
Il successivo passo di questa ricerca è la piattaforma SOFAI (Slow and Fast AI), descritta nel lavoro pubblicato su Communications of the ACM nel 2025. Qui il modello diventa operativo: due motori cognitivi, uno veloce e uno lento, coordinati da un agente metacognitivo che decide quando e come attivarli. SOFAI può risolvere problemi di pianificazione o navigazione combinando modelli neurali rapidi con algoritmi simbolici più lenti. Il punto non è tanto l’efficienza quanto la flessibilità. In certi scenari il sistema usa l’intuizione statistica (come farebbe un LLM), in altri si affida al ragionamento logico. L’agente metacognitivo valuta le prestazioni passate, il livello di fiducia nel risultato e il costo computazionale, scegliendo di volta in volta la strategia più adeguata. È l’embrione di un’AI capace di gestire il proprio processo cognitivo.
La tentazione, a questo punto, è quella di vedere in SOFAI una forma embrionale di “coscienza computazionale”. Ma Ganapini non cade in questa trappola metafisica. Il suo approccio resta saldamente ancorato all’etica e all’epistemologia. Non si tratta di creare macchine che pensano, ma di costruire sistemi che pensano con. Il concetto chiave è la cooperazione cognitiva: l’AI non è un sostituto della mente umana, ma un partner che amplifica le nostre capacità senza eroderne l’autonomia. È una distinzione sottile ma decisiva. Nel mondo delle scoperte scientifiche, l’autonomia cognitiva non è un lusso ma la condizione stessa dell’innovazione.
Chi invoca un’AI “scienziata” dimentica che la scienza non è solo logica ma anche dubbio, curiosità, intuito estetico. La scoperta nasce dall’imprevisto, non dal pattern. Un algoritmo può identificare correlazioni non ovvie tra geni o molecole, ma non può chiedersi se quella correlazione significhi qualcosa. Può proporre un modello climatico più accurato, ma non può domandarsi se il concetto stesso di “accuratezza” sia adeguato al fenomeno. La capacità di formulare una domanda che non era nel dataset resta, per ora, un privilegio umano.
In questo scenario teorico si inserisce con coerenza il suo libro “Il futuro dell’intelligenza artificiale tra fiducia e scetticismo” (collana Filosofie, 2025, 148 pagine, ISBN 9791222321882). Il volume è un saggio breve ma densissimo, che affronta l’altra faccia della questione: non come l’AI pensa, ma come noi pensiamo l’AI. Ganapini qui sposta il baricentro dalla cognizione alla relazione, analizzando la fiducia come forma di architettura morale tra uomo e macchina. La tesi è chiara e provocatoria: il futuro dell’intelligenza artificiale è duplice, perché l’AI sarà parte di noi ma anche altro da noi. Questa ambivalenza, sostiene l’autrice, è ciò che richiede di superare le retoriche estreme, quelle apocalittiche e quelle euforiche. La vera sfida non è controllare l’AI ma costruire con essa un equilibrio dinamico tra fiducia e scetticismo.
Nel libro emerge una filosofia della responsabilità tecnologica: possiamo fidarci dell’AI solo quando i suoi processi rispettano diritti, privacy e giustizia. La fiducia, scrive Ganapini, non è un atto di fede ma un calcolo etico. È una forma di trasparenza epistemica che nasce dal rispetto dell’autonomia umana. Solo un’AI che protegga la libertà cognitiva dell’individuo, e non la manipoli, può aspirare a essere considerata degna di fiducia. Da qui il parallelismo con le sue ricerche tecniche: il nudging cognitivo e la metacognizione non servono a sostituire il giudizio umano, ma a rafforzarlo. È un ritorno alla radice kantiana del pensiero critico: la fiducia nella ragione è l’unica che possa legittimare la fiducia nella macchina.
L’intelligenza artificiale scientifica, nella prospettiva di Ganapini, è dunque una questione di etica prima che di calcolo. La vera innovazione non consiste nell’automazione della scoperta, ma nell’automazione della riflessione. Non si tratta di generare risultati, ma di generare fiducia nella validità dei processi. È un messaggio potente in un’epoca in cui l’AI pretende di essere “generativa” ma raramente è giustificativa. Ogni scoperta richiede un perché, non solo un output.
Il lavoro di Marianna Bergamaschi Ganapini unisce rigore tecnico, sensibilità filosofica e lucidità politica. Le sue architetture cognitive — FASCAI e SOFAI — non sono modelli di intelligenza artificiale nel senso classico, ma esperimenti di co-intelligenza. Il suo libro, invece, è un manifesto per una nuova alfabetizzazione etica, un invito a disinnescare il fascino tossico della delega totale. Se la fiducia cieca nell’AI è pericolosa quanto il rifiuto assoluto, il suo pensiero suggerisce una terza via: quella del dialogo cognitivo. Forse, prima di chiederci se l’AI può fare scoperte scientifiche, dovremmo chiederci se noi siamo ancora capaci di scoprirci attraverso di lei.

