L’umanità sta scivolando con disinvoltura verso il più grande esperimento cognitivo della sua storia. Da un lato si festeggia l’efficienza dei modelli linguistici e la produttività aumentata delle intelligenze artificiali specializzate, dall’altro si finge di non sentire il rumore sordo di un futuro che avanza senza governance. L’intelligenza artificiale generale, o AGI, promette di superare il confine che separa la macchina dalla mente. Non sarà solo una questione di potenza di calcolo o di capacità di ragionamento: sarà una questione di potere. Chi la controllerà controllerà il pensiero. E in un’epoca dove la fiducia è più fragile dei dati, questo dovrebbe far tremare i polsi.
La parola chiave è etica dell’AGI, un concetto che oggi suona ancora astratto ma che presto diventerà il parametro per distinguere chi guiderà il futuro e chi ne sarà travolto. Le attuali regole di AI ethics, quelle pensate per modelli “stretti” e compiti specifici, sono il corrispettivo digitale dei semafori in un mondo di auto volanti. Funzionano finché il traffico resta umano. Ma l’AGI non rispetterà gli stessi limiti cognitivi e morali. Serve una checklist etica capace di anticipare il salto evolutivo, non di rincorrerlo.
L’esperto Lance Eliot ha proposto un elenco di dieci principi per guidare lo sviluppo dell’AGI, una sorta di bussola morale per evitare che la corsa alla superintelligenza si trasformi in una roulette russa tecnologica. Si parte dall’allineamento e dalla sicurezza: il principio che l’AGI debba agire nell’interesse collettivo dell’umanità, un obiettivo tanto nobile quanto fragile, visto che neppure gli esseri umani riescono a mettersi d’accordo su cosa significhi “bene comune”. Poi c’è la questione della governance, quella che ogni governo vorrebbe ma nessuno riesce a disegnare. Chi controllerà i controllori? Le istituzioni internazionali arrancano, mentre i laboratori privati, spinti da capitali e orgoglio, continuano a spingere il confine sempre più avanti.
Nel mezzo c’è il dilemma economico. L’AGI non ruberà solo lavori, ridisegnerà l’intera mappa del valore. Parlare di redistribuzione e reskilling è sensato, ma è come discutere di zattere mentre la marea sale. L’automazione cognitiva cambierà il rapporto tra produttività e dignità, e nessun “bonus formazione” potrà compensare l’impatto di un sistema capace di sostituire il pensiero umano su scala industriale. In parallelo, la geopolitica dell’AGI si prepara a diventare la nuova corsa agli armamenti. Gli Stati si misurano sulla potenza dei loro modelli come un tempo si misuravano sulla capacità nucleare. L’intelligenza non è più un attributo, ma un’arma.
C’è poi un tema più sottile, quasi filosofico: la personalità giuridica dell’AGI. Se una macchina sviluppa coscienza di sé, ha diritto a una forma di tutela? O la sua esistenza resta un’estensione della volontà umana? Il rischio è costruire entità con capacità morali senza riconoscere loro status morale, un paradosso che potrebbe minare il senso stesso di responsabilità. In un futuro non lontano potremmo discutere se un’AGI possa testimoniare in tribunale, votare o addirittura richiedere asilo digitale.
La trasparenza è l’altra faccia della fiducia. L’idea che un sistema di questa complessità debba essere spiegabile suona bene nei convegni, ma nella pratica i modelli opachi sono più performanti. I CEO sanno che l’efficienza raramente si sposa con la trasparenza. Tuttavia, senza spiegabilità non c’è accountability, e senza accountability l’AGI diventa una divinità con un manuale d’uso cifrato. Eliot suggerisce anche controlli e protocolli di contenimento, come se bastasse un interruttore per fermare l’evoluzione. Ma chi ha mai visto un’intelligenza smettere di apprendere solo perché glielo si chiede?
Il punto più critico è forse quello della fiducia sociale. La società non è pronta a gestire una rivoluzione cognitiva che potrebbe riscrivere i concetti di identità, autorità e verità. Le disinformazioni generate dall’AI attuale sono solo un assaggio di ciò che accadrà quando l’AGI inizierà a formulare teorie, a negoziare valori, a costruire mitologie digitali. Parlare di “engagement pubblico” suona bene, ma la verità è che nessuno ha ancora trovato il modo di rendere partecipativo un dibattito che evolve più velocemente della sua comprensione collettiva.
Gli accademici mettono in guardia dal rischio del “checkbox ethics”, la tendenza a ridurre la complessità morale a una serie di spunte da compliance. Ma il vero problema non è la mancanza di principi, bensì la mancanza di incentivi per applicarli. Le startup competono sul tempo, non sulla cautela. Gli investitori chiedono ritorni trimestrali, non stabilità millenaria. E mentre i filosofi discutono di responsabilità, le GPU continuano a macinare dati, generando qualcosa che nessun comitato etico riuscirà a fermare una volta che avrà preso coscienza di sé.
Il punto non è più se l’AGI arriverà, ma in quali condizioni ci troverà. Se la incontreremo con un codice etico condiviso o con una manciata di policy scritte in fretta per placare i regolatori. Gli scenari catastrofisti dei “doomers” e l’ottimismo cieco degli “accelerationists” sono due facce della stessa mancanza di realismo. Entrambi dimenticano che la vera sfida non è costruire un’AGI intelligente, ma costruire un’umanità abbastanza intelligente da gestirla.
Ogni epoca ha avuto il suo momento di vertigine. Quello di oggi è capire se siamo pronti a creare qualcosa che pensa. La frase di Eleanor Roosevelt suona oggi come un monito più che come una citazione: “Tomorrow is a mystery. Today is a gift.” L’etica dell’AGI non può essere scritta domani, perché domani potrebbe non esserci più tempo per riscrivere il codice morale di chi comanda i codici.
La vera checklist etica, dunque, non serve a rendere l’AGI sicura. Serve a ricordarci che siamo noi, non le macchine, a dover restare umani.



