di Floriana Nappi & Antonio Dina
Può una macchina pensare come un filosofo del Rinascimento. Non simulare, non citare, non imitare, ma ragionare davvero secondo strutture mentali nate quattro secoli fa. La domanda sembra oziosa, quasi accademica, finché non diventa un banco di prova per il modo in cui stiamo costruendo l’Intelligenza Artificiale di domani.
Al centro di questo confronto c’è Giordano Bruno, pensatore irregolare, contraddittorio, refrattario a ogni sistema chiuso. Un filosofo che sfida ancora oggi non solo la teologia e la metafisica, ma anche la logica formale. Ed è proprio qui che entra in gioco il lavoro del professor Aniello Murano dell’Università Università Federico II, che ha scelto di affrontare Bruno non come un archivio da digitalizzare, ma come una mente da rappresentare attraverso la Knowledge Representation and Reasoning e la logica epistemica.
Un progetto che non parla solo di tecnologia, ma di ontologia, di incertezza, di incompletezza. E che inevitabilmente chiama in causa la filosofia, quella vera, quella che non si accontenta di risposte formalmente corrette. A dialogare con questa visione è il professor Mario De Caro, ordinario di Filosofia all’Università Università Roma Tre e titolare di cattedra UNESCO, che guarda all’Intelligenza Artificiale non solo come a un sistema di ragionamento, ma come a un problema epistemologico ed etico.
Logica deduttiva e logica abduttiva. Macchine che ragionano e macchine che ipotizzano. Sistemi formalmente corretti e sistemi moralmente discutibili. In mezzo, l’essere umano, con le sue contraddizioni, i suoi limiti cognitivi e la responsabilità di decidere che tipo di intelligenza vuole costruire.
Questa non è un’intervista sull’Intelligenza Artificiale. È un confronto su cosa significa, oggi, pensare. E su quanto siamo disposti a delegarlo.
L’intervista
Può una macchina pensare come il “Nolano”? Il progetto rivoluzionario del Professor Aniello Murano (Università Federico II) non è una semplice operazione di archiviazione digitale, ma una sfida ontologica: rendere vivo il pensiero di Giordano Bruno attraverso l’Intelligenza Artificiale.
“Il cuore del progetto – spiega il prof federiciano – risiede nella Knowledge Representation and Reasoning(KRR) dell’Intelligenza Artificiale, ossia la rappresentazione della conoscenza attraverso il ragionamento, la logica epistemica”.
Ma cosa ne pensa il Professor Mario De Caro, Ordinario di Filosofia dell’Università Roma Tre?
“Un esperimento interessante, improntato alla logica deduttiva, al ragionamento. Sarei curioso – aggiunge il prof. De Caro – di sapere se questo esperimento contempli anche la logica abduttiva, quindi la capacità di generare ipotesi nuove. Ne vedo le potenzialità anche sul piano dello studio e della didattica. La scelta di Giordano Bruno è una vera sfida perché è un filosofo pieno di contraddizioni ed è quindi più interessante seguire il processo di rappresentazione della sua mente”.
Il prof. Murano risponde illustrando la capacità delle sue teorie di Knowledge Representation and Reasoning, soprattutto quelle non monotone, ma basate su Strategy Logic, di affrontare anche i cosiddetti Sistemi incompleti, ossia la capacità della logica moderna di non essere una gabbia rigida, ma “uno strumento in grado di gestire l’incertezza e l’incompletezza tipiche dell’animo umano, in quanto essa è progettata per operare in scenari dove le informazioni sono parziali”.
La logica epistemica utilizzata dal prof. Murano e quindi la scelta “epistemicamente corretta” porta ad un’altra domanda che allarga il campo ad uno dei temi cari al prof De Caro: epistemicamente corretto non significa moralmente corretto. Nel paradigma uomo-macchina, quale etica dobbiamo difendere?
“Non c’è un paradigma condiviso – spiega il prof. De Caro, titolare della cattedra UNESCO – le macchine sono create per fini utilitaristici. Basterebbe programmare sistemi che minimizzino gli errori, quindi l’Intelligenza agentica, ma dove però gli uomini governano gli strumenti. Su quale etica orientarsi, il dibattito è aperto: dall’imperativo categorico di Kantiana memoria – continua il prof. De Caro – non sempre attuabile all’etica utilitaristica secondo la quale un’azione è moralmente giusta se produce la massima felicità per il maggior numero di persone. Oggi, – conclude – si riscopre l’etica antica di Aristotele, quella che impone lo studio caso per caso, la saggezza pratica”.
Come potrebbe essere applicata alle macchine questa etica?
“Occorre addestrare le macchine su casi concreti – dichiara il prof. De Caro- è difficile stabilire i principi generali nella complessità del reale, ma di certo ciò che ci differenzia è meno da ciò che ci accomuna”-
Il prof. Murano aggiunge: “Talvolta la supremazia della macchina può essere in alcuni contesti non condivisibile dall’uomo e per questo, insieme ad alcuni miei colleghi, h avviato e realizzato uno strumento decisionale, artificiale che simuli perfettamente le limitazioni cognitive umane. Si tratta di un sistema che decide sempre con precisione, ma ha una capacità limitata. Può non vedere delle soluzioni esistenti che richiederebbero uno sforzo maggiore, tipico dei sistemi di IA senza limitazioni
Il prof De Caro a tal proposito mostra il suo entusiasmo per questo progetto perché precisa: “consente di studiare la mente umana”
E in questo caso, viene da chiedersi, dobbiamo fare i conti con la responsabilità di chi addestra le macchine?
“Occorre un addestramento pubblico, partecipato, consapevole e responsabile, evitando i bias nascosti – continua il prof de Caro-se pensiamo, per esempio, in ambito militare al drone che colpisce gli umani senza avere limitazioni, comprendiamo quanto sia necessario addestrare le macchine in modo responsabile e soprattutto condiviso perché si aderisca ad un patrimonio collettivo”. E su questa vision il prof De Caro sente tutta la responsabilità della sua cattedra UNESCO che nasce per evitare che l’IA sia governata solo da logiche private o opache, promuovendo, invece, un controllo etico, internazionale e condiviso.
E su questi temi è d’accordo anche il prof. Murano
“La responsabilità di chi addestra è fondamentale -aggiunge – non possiamo basare principi fondanti su black box di pochi privati, l’addestramento deve essere un processo chiaro, spiegabile, frutto di un ragionamento logico, lontano dal sistema dell’IA generativa alla quale se chiedi il perché di un processo è capace di rispondere inventando”.
Allora qual è la soluzione?
All’unisono i professori sostengono che la soluzione è l’AI simbolica che non è energivora, sostenibile e affidabile. Le sue risposte sono formalmente corrette. Entrambi approvano questa linea. La vera sfida per il futuro è proprio lavorare sul neuro-simbolico, ossia combinare in modo efficiente la ricerca sulle reti neurali e l’IA simbolica.
In questa direzione Il prof. Murano ha ricordato l’impegno di questi giorni dell’AIxIA di cui è vicepresidente per supportare e definire la revisione dell’AI Act nel contesto del Digital omnibus che è ormai naturalmente obsoleto poiché è stato definito all’indomani dell’esplosione dell’IA generativa. L’obbiettivo di AIxIA da una parte è quello di ridurre i vincoli di applicazione dell’ IA, ma dall’altra quella di dotarsi di una Intelligenza Artificiale affidabile e sicura in tutti i possibili contesti.