Adriano Fabris si muove nel panorama filosofico come una di quelle figure che riescono a mantenere lo sguardo lucido mentre il mondo tecnologico accelera al ritmo cardiaco di una startup che ha appena ricevuto un round di finanziamento troppo generoso. La sua riflessione trova nella filosofia morale dell’intelligenza artificiale la propria keyword naturale, mentre concetti come etica dell’IA e filosofia dell’IA costituiscono le coordinate semantiche che permettono di leggere il suo pensiero senza restare prigionieri del solito gergo accademico che pretende di essere severo e finisce invece per diventare decorativo. La sua formazione presso l’Istituto Italiano per gli Studi Filosofici, tra Gadamer e Ricoeur, è la prova che certi percorsi non si improvvisano. Resta significativo il fatto che Fabris continui a insegnare nello stesso luogo in cui ha assorbito il primo linguaggio filosofico, come se lo spazio stesso custodisse una memoria che obbliga a una fedeltà intellettuale.
La sua traiettoria da professore ordinario a Pisa, direttore di centri interdisciplinari e figura internazionale nei consorzi di filosofia globale, non è un esercizio di accumulo di titoli ma uno specchio dell’idea di responsabilità che attraversa tutto il suo pensiero. Non stupisce che sia diventato investigatore principale di un progetto che si occupa dell’etica dell’intelligenza artificiale all’interno della Fondazione Fair Future Artificial Intelligence Research, quasi a voler dimostrare che la filosofia non è una reliquia, ma una leva operativa per leggere gli ambienti tecnologici e orientare chi li abita. Il suo libro imminente, dedicato alla filosofia nell’epoca dell’intelligenza artificiale, promette di diventare un testo di riferimento per chi vuole capire il senso di ciò che accade tra i codici, gli algoritmi e le nostre fragili aspettative di controllo.
La tesi centrale di Fabris è tanto semplice quanto scomoda: la filosofia serve. La provocazione è calibrata per irritare chi ancora vede la disciplina come un passatempo cerebrale da biblioteche silenziose. La filosofia morale dell’intelligenza artificiale, nella sua prospettiva, non è una sovrastruttura estetica da applicare alla tecnologia, ma un esercizio chirurgico di analisi che dissipa le illusioni linguistiche e concettuali prodotte dall’allargamento semantico di termini come comportamento, intelligenza o ambiente. Chiunque abbia scambiato un output plausibile per una prova di pensiero, o un algoritmo per un soggetto morale, è esattamente l’interlocutore che Fabris vuole riportare a terra. L’antropomorfizzazione delle macchine è infatti la prima forma di cortocircuito etico del nostro tempo, seguita dalla sua sorella speculare, la meccanizzazione dell’essere umano, quella tentazione subdola di appiattire la nostra creatività alla fredda efficienza di una macchina progettata per ottimizzare, non per comprendere.
La sua proposta metodologica nasce da un’idea tutt’altro che ingenua. L’intelligenza artificiale non rappresenta un semplice avanzamento, ma una metamorfosi di tutte le tecnologie. Questa trasformazione impone di rivedere l’impianto etico tradizionale, che non può più bastare come bussola in un mondo popolato da agenti artificiali capaci di produrre effetti senza obbedire alle stesse leggi intenzionali dell’azione umana. La tripartizione formulata da Fabris, che articola l’etica dell’IA nelle dimensioni dell’etica nell’intelligenza artificiale, dell’etica della intelligenza artificiale e dell’etica per l’intelligenza artificiale, costituisce uno dei contributi più solidi alla discussione internazionale.
La prima dimensione, quella che agisce nel cuore del codice, si concentra su ciò che viene inscritto negli algoritmi. I programmatori, spesso inconsapevolmente, incorporano valori, preferenze, metriche che riflettono una visione del mondo centrata sulla massima utilità. La filosofia morale dell’intelligenza artificiale serve proprio a perforare questa patina di neutralità apparente, esponendo i bias che si nascondono sotto la superficie delle statistiche. La proposta del learning to defer, che introduce salvaguardie progettate per restituire l’ultima decisione all’essere umano, è una delle applicazioni più interessanti della sua visione. La tecnologia deve supportare, non sostituire.
La seconda dimensione riguarda l’ambiente in cui viviamo, suddiviso tra offline e online, tra relazione fisica e connessione digitale. Qui Fabris affila la lama critica, opponendosi alla retorica dell’onlife che pretende di cancellare la distinzione tra i due spazi. La sua ecologia degli ambienti digitali ricorda a tutti che l’esperienza fisica possiede una densità, una corporeità e una imprevedibilità che nessuna connessione può imitare senza diluirla. Internet promette immediatezza, ma al prezzo di una compressione antropologica. La filosofia serve a recuperare quel margine di differenza che ci permette di non diventare estensioni algoritmiche di una infrastruttura invisibile.
La terza dimensione è la più ambiziosa. L’etica per l’intelligenza artificiale pretende una fondazione universale. Fabris riconosce i limiti delle normative nazionali, dei codici deontologici e persino dei modelli bioetici classici, che spesso offrono cataloghi di principi senza un’ancora filosofica solida. La sua ricerca comparativa su centinaia di linee guida internazionali porta alla luce un nucleo ricorrente di valori come trasparenza, responsabilità, autonomia, privacy, giustizia e sicurezza. La vera originalità è però il tentativo di fondare questi principi sulla consapevolezza della finitezza umana. Il limite non è un fastidio, ma una condizione di possibilità. Il confine si supera, il limite si riconosce. La tecnologia che promette immortalità o potenziamenti oltre l’umano dimentica che ogni salto produce inevitabilmente nuovi vincoli. Il paradosso è antico, i suoi travestimenti sono nuovi.
Il cuore più provocatorio della sua analisi riguarda il tema della verità. L’intelligenza artificiale generativa opera attraverso correlazioni sintattiche senza alcuna presa semantica sulla realtà. La verità diventa una questione etica, non un fatto puramente teoretico. La fiducia, non l’eleganza statistica, è il collante della comunicazione umana. La proliferazione delle allucinazioni dell’IA non è un bug, ma la conseguenza naturale di un sistema che completa frasi senza assumere responsabilità. La filosofia morale dell’intelligenza artificiale serve qui a rimettere ordine, ricordando che la verità è una relazione, non un algoritmo.
L’allegoria della tartaruga, che Fabris preferisce alla Civetta di Minerva, è più attuale di quanto sembri. Achille, il corridore tecnologico, si muove a velocità vertiginosa, ma resta intrappolato nella sua logica lineare. La tartaruga filosofica invece apre lo spazio della riflessione, costringe a una pausa che non è lentezza, ma profondità. Nel dialogo tra tartaruga e Achille si gioca il futuro dell’interazione uomo macchina, e sta a noi decidere se restare al centro della decisione o delegare la nostra autonomia a una funzione di completamento automatico.
Il punto è chiaro: essere affiancati o essere sostituiti. Fabris non usa mezzi termini. L’intelligenza artificiale deve essere un supporto, non un delegato. L’ultima decisione spetta all’essere umano, proprio perché solo l’essere umano può riconoscere i propri limiti e trasformarli in una risorsa etica. In un’epoca che finge di celebrare l’illimitato, la filosofia dell’intelligenza artificiale invita a riscoprire il valore del limite come custodia della nostra dignità operativa.



