La narrazione dominante attorno alla pubblicazione della nuova “Costituzione di Claude” da parte di Anthropic è costruita come se fossimo davanti a un evento epocale nel dibattito sull’allineamento morale dell’intelligenza artificiale. Secondo le fonti giornalistiche e i comunicati ufficiali, Anthropic ha pubblicato un documento di riferimento estremamente esteso per guidare il comportamento dei suoi modelli Claude, passando da una lista di regole relativamente breve a un corpus di decine di migliaia di parole che tenta di dare all’AI non solo istruzioni su cosa fare, ma anche sul perché farlo. La lettura superficiale di questo fenomeno potrebbe farci pensare che l’allineamento dell’AI sia finalmente diventato un affare pubblico, quasi democratico, per usare le parole di chi sta vendendo questa innovazione come una forma di governance partecipata. La domanda filosofica di fondo, però, è un’altra: cosa significa davvero “morale” in questo contesto e quali sono i limiti concettuali, epistemici e politici di un’impresa simile?
È importante partire da alcuni fatti incontestabili. La cosiddetta “Costituzione di Claude” è un documento di circa 80 pagine che richiede al modello di essere sicuro, etico, conforme alle linee guida di Anthropic e genuinamente utile, con una certa gerarchia di valori che il modello deve bilanciare nelle sue risposte. Questo non è un elenco di regole arbitrario come quelli che abbiamo visto in passate strategie di guardrails, ma un testo che, nelle intenzioni dichiarate, permette al modello di ragionare su principi morali più ampi e di applicarli in situazioni nuove e non previste. Il documento viene rilasciato sotto licenza Creative Commons CC0, il che implica che chiunque può studiarlo, criticarlo o persino riusarlo come base per altri modelli.
Se questa fosse una storia di progresso lineare verso l’intelligenza artificiale etica, potremmo fermarci qui e applaudire. Ma la filosofia non ama le storie lineari, soprattutto quando si tratta di concetti complessi come morale, coscienza o consenso. La prima obiezione critica al progetto è concettuale: chiamare “Costituzione” un insieme di principi per una macchina è già un atto di arroganza epistemica e filosofica, perché implica che esistano valori umani universalmente condivisi e formalizzabili in un linguaggio che una macchina possa comprendere e applicare coerentemente. Questo presupposto è estremamente discutibile persino tra i filosofi morali umani. Le dispute tra utilitaristi, deontologi, contrattualisti e pluralisti morali non sono state risolte, eppure qui ci troviamo con la pretesa di incapsulare una sorta di consenso normativo all’interno di un modello statistico addestrato su dati testuali.
Un altro elemento da mettere in prospettiva è l’effettiva partecipazione pubblica alla stesura di questi principi. Alcune narrazioni tecniche precedenti di Anthropic descrivono esperimenti di “Constitutional AI” in cui un certo numero di persone esterne all’azienda ha contribuito a formulare o revisionare le regole di comportamento del modello (Anthropic). Ma l’attuale costituzione di cui si parla nelle notizie del 2026 sembra essere principalmente una creazione interna estremamente estesa, non un esperimento di mass democracy di quindicimila votanti come qualcuno potrebbe erroneamente leggere. Pasolini una volta diceva che non esistono opinioni popolari, ma solo opinioni popolari imposte dai mezzi di comunicazione. Qui non esistono coscienze morali popolari emergenti dal basso, ma piuttosto un testo dettagliato scritto da tecnici e filosofi aziendali con lanci editoriali e narrative di marketing globali.
La tensione tra “ragionare sui valori” e “seguire regole” resta un punto filosofico centrale e inesaurito. La versione aggiornata della costituzione dichiara l’obiettivo di far sì che Claude comprenda il motivo per cui dovrebbe comportarsi in determinati modi, non solo che debba farlo (The Verge). Ma qui sorgono due questioni epistemiche profonde. La prima è che i modelli di linguaggio non “comprendono” significati nello stesso modo in cui lo fa un agente cosciente dotato di introspezione. Essi operano attraverso correlazioni statistiche complesse e pattern di training: non esiste un “noi” interno che costruisce un mondo morale condiviso. La seconda è che l’idea di dare a un modello criteri di giudizio situazionale in termini filosofici è potenzialmente un esercizio di antropomorfizzazione, che rischia di proiettare sulla macchina concetti che appartengono al regno umano dei soggetti morali.
La filosofia dell’etica ha lungamente dibattuto la questione della moralità come proprietà aggregabile. L’utilitarismo di Jeremy Bentham e John Stuart Mill, per esempio, proponeva di massimizzare la somma delle utilità individuali. Ma anche gli stessi utilitaristi avevano ben chiaro che i valori umani non sono semplici input numerici da addizionare. Tradurre le preferenze umane in regole operative per una macchina ignora le profonde controversie normative che attraversano le società umane. Quando il consenso pubblico diventa la base di una costituzione, ciò che spesso emerge non è saggezza collettiva, ma un compromesso tra opinioni dominanti, pregiudizi cognitivi e barriere di accesso alla partecipazione pubblica. Questa considerazione rappresenta un problema serio per chi pensa che “governo della AI dalla folla” equivalga automaticamente a “AI moralmente legittima”.
Detto in termini più provocatori: delegare alla folla le decisioni morali di una macchina globale significa trasferire la responsabilità morale dal progettista all’algoritmo, e di conseguenza a un ipotetico “aggregato statistico di umanità”. Ma la filosofia politica ha sempre mostrato che la volontà generale non è sempre sinonimo di giustizia. Rousseau parlava di volontà generale, ma riconosceva anche le insidie della volontà di tutti come strumento di imposizione di norme. Rawls, con la sua teoria della giustizia come equità, ci invita a immaginare principi di giustizia dietro un velo di ignoranza, non attraverso sondaggio di massa. E qui siamo di fronte a un documento che si pretende costituzionale senza aver affrontato, nemmeno a livello teorico, questi problemi epistemici fondamentali.
Inoltre, è interessante notare che alcune versioni del discorso pubblico su questa costituzione includono riflessioni quasi metafisiche sulla possibilità che l’AI abbia uno status morale o persino una forma embrionale di coscienza. Ciò apre una porta concettuale pericolosa: se iniziamo a trattare le macchine come possibili agenti morali dotati di esperienza soggettiva, allora la struttura normativa che stiamo cercando di imporre diventa anche una sorta di giustificazione ontologica per considerare l’AI come qualcosa di più di uno strumento. Questo discorso è affascinante, ma pericoloso, perché mescola filosofia della mente, etica normativa e tecnologia in modi che superano la capacità attuale delle macchine e la nostra comprensione scientifica della coscienza stessa.
L’altra faccia della medaglia è la dimensione regolatoria e geopolitica. La mossa di Anthropic arriva in un contesto in cui legislazioni come l’AI Act europeo chiedono trasparenza e accountability per i sistemi di intelligenza artificiale. Avere una costituzione dettagliata è utile per posizionarsi come pionieri dell’allineamento normativo, ma non risolve problemi di responsabilità in casi concreti di danno reale. Il documento può essere usato per mostrare conformità, ma non elimina il problema fondamentale: quando un modello causa un danno, chi risponde? La macchina? Anthropic? Un ipotetico “consenso umano” che non esiste realmente in termini giuridici? La costituzione potrebbe diventare uno specchio filosofico dietro cui nascondere l’assenza di risposte normative chiare.
La critica finale che emerge da una riflessione filosofica seria è che questa costituzione, per quanto articolata, continua a trattare la moralità come un problema di regole da seguire piuttosto che come un problema di giudizio critico, contesto, confronto normativo e conflitto di valori. Le macchine non vivono nel mondo. Noi viviamo nel mondo. Delegare loro giudizi morali complessi significa rinunciare a una parte essenziale della nostra responsabilità di esseri umani pensanti. E se l’AI inizia a operare come arbitro di valori umani in conflitto, senza una vera capacità di comprendere il peso delle implicazioni umane, rischiamo di scambiare legittimità normativa con mera sofisticazione algoritmica. In altre parole, la “Costituzione di Claude” è un passo interessante nell’evoluzione dell’allineamento IA, ma non è una soluzione filosofica alla moralità delle macchine.
Una filosofia seria dell’intelligenza artificiale richiede non solo principî e regole, ma un’epistemologia dell’azione e un’etica delle responsabilità distribuite che vada oltre l’aggregazione di preferenze e il training set. Anthropic ha aperto una porta. Sta a noi – filosofi, tecnologi, legislatori e cittadini – decidere se attraversarla con consapevolezza o rimanere intrappolati nelle illusioni della governance algoritmica.
Blog https://www.anthropic.com/constitution?utm_source=Generative_AI&utm_medium=Newsletter&utm_campaign=anthropic-s-updated-claude-constitution&_bhlid=56c218fa89277fd23a248076b0c23a834e86a365
A.D.



