
L’IA come Scelta Politica e Bene Comune
Il punto focale della riflessione di SEPAI è la ferma convinzione che l’IA non sia un mero destino tecnico da subire, bensì una scelta politica e culturale che deve essere orientata e governata. L’intelligenza artificiale viene elevata allo status di bene comune, un concetto che ne impone la comprensione, la regolazione e l’uso a beneficio della collettività e con la centralità della persona come principio guida. Da qui scaturisce l’esigenza di una nuova alleanza tra etica e politica, dove il rigore scientifico si fonde con la sensibilità morale e la responsabilità democratica.
Le Due Dimensioni della Sfida
Il Manifesto struttura la complessa sfida dell’IA su due livelli complementari.
In primo luogo, si affrontano le questioni locali, che riguardano l’IA come strumento in contesti specifici (giustizia, selezione del personale, sanità, ecc.). Qui, l’attenzione va oltre la semplice privacy dei dati per abbracciare la necessità di proteggere la privacy intellettuale , ovvero lo spazio in cui l’individuo forma opinioni libere da manipolazione algoritmica, l’iper-nudging o la disinformazione automatizzata. L’equità, in questa dimensione, non è solo assenza di bias, ma deve trasformarsi in equità positiva, garantendo a tutti pari opportunità e richiedendo che ogni decisione automatizzata sia pienamente giustificabile – la vera essenza della giustizia algoritmica.
In secondo luogo, si analizzano le questioni globali, relative all’IA come forza trasformativa che ridefinisce l’intera civiltà. L’IA non è solo un mezzo, ma una “tecnologia ambientale” che modifica la conoscenza, il lavoro e le relazioni, ponendo interrogativi fondamentali sull’agency umana. Se le macchine sanno creare e scegliere, cosa rimane della nostra originalità e intenzionalità? La posta in gioco qui è il tipo di civiltà che vogliamo costruire in questa nuova era di coesistenza con le intelligenze artificiali.
Governance e Missione Istituzionale
Per affrontare queste sfide globali, SEPAI propone una governance inclusiva e plurale su scala planetaria. L’Associazione riconosce e vuole contrastare la colonialità digitale lo sfruttamento del lavoro invisibile, la concentrazione di potere in poche aziende globali e le diseguaglianze nell’accesso alle risorse sostenendo il principio di una sovranità democratica sull’IA. Il potere algoritmico deve essere legittimato e giustificabile di fronte alla comunità.
La missione istituzionale di SEPAI, quindi, si concretizza nel promuovere la ricerca interdisciplinare, creare una comunità stabile di esperti e cittadini impegnati, elaborare proposte di policy concrete e divulgare una cultura dell’uso consapevole. L’obiettivo ultimo è la ricerca di una saggezza pratica (phrónesis) che, unendo conoscenza e discernimento morale, possa indirizzare l’innovazione in una prospettiva di coevoluzione umana e artificiale, assicurando che l’IA sia un fattore di accrescimento della dignità umana, e non un suo sostituto.
In sostanza, SEPAI si configura come un’iniziativa che vuole trasformare la sfida dell’IA da “prova tecnologica” a “prova di civiltà”, chiamando all’impegno collettivo per un futuro scritto non nel codice, ma nelle nostre scelte democratiche.
Prof Mario De Caro
Professore Ordinario
Mario De Caro, professore ordinario di Filosofia morale presso l’Università Roma Tre e visiting professor alla Tufts University di Boston. È stato presidente della Società italiana di filosofia morale e Fulbright Fellow all’Harvard University. Ha appena pubblicato il volume “Intelligenze. Etica e politica dell’IA“ con l’editore il Mulino.
Prof. Andrea Lavazza
Neuroetica
Andrea Lavazza, professore associato di Filosofia morale all’università Pegaso e professore aggiunto di Neuroetica all’Università degli Studi di Milano, si occupa da tempo di etica delle nuove tecnologie. Per il 2024, è stato inserito nella Stanford/Elsevier World’s Top 2% Scientists List.
Enrico Panai
Human Information Interaction Specialist
Enrico Panai,
esperto di etica dell’IA e presidente dell’Associazione degli Eticisti dell’IA. Professore della Università Cattolica di Milano in Italia e si occupa di standardizzazione dell’IA per l’UE. Ha conseguito un dottorato di ricerca a Sassari, ha pubblicato su etica e inclusione e ha tradotto in francese i testi di Luciano Floridi.
Sergio Barbarossa
Professore Ordinario
Professore Ordinario presso l’Università di Roma La Sapienza e Senior Research Fellow della Scuola Superiore di Studi Avanzati della Sapienza (SSAS). È stato nominato IEEE Fellow nel 2012 e EURASIP Fellow nel 2015. È stato visiting professor nella University of Virginia e University of Minnesota.
Gino Roncaglia
Professore Ordinario
Gino Roncaglia professore ordinario di Editoria digitale, Digital Humanities e Filosofia dell’Informazione all’Università di Roma Tre, membro del consiglio scientifico della Fondazione Scuola beni e attività culturali, del CdA di Biblioteche di Roma, professore onorario della Universidad Nacional Villa María Argentina, collabora da oltre 25 anni con RAI Cultura.
Marianna B. Ganapini
Associate Professor, UNC Charlotte
Filosofa e imprenditrice, si occupa di etica e governance dell’intelligenza artificiale. È Associate Professor alla UNC Charlotte di filosofia e data science; è co-fondatrice di LogicaNow, società di consulenza specializzata in Responsible AI. La sua ricerca esplora fiducia, autonomia e responsabilità nelle tecnologie intelligenti.
Benedetta Giovanola
Professore Ordinario, Università di Macerata
Titolare della cattedra Jean Monnet EDIT – Etica per un’Europa digitale inclusiva . Dirige il programma di dottorato in Politica, Società, Tecnologia ed è Presidente di GAIA srl, uno spin-off universitario focalizzato sulla valutazione etica dell’IA. Visiting professor presso la Tufts University, è responsabile scientifico di progetti finanziati dall’UE, valutatrice per la Commissione Europea e consulente etico di progetti di ricerca internazionali.