La discussione su intelligenza artificiale generale non era mai stata così polarizzata come questa settimana quando quattro figure di spicco nel mondo della tecnologia e del transumanesimo si sono confrontate su una domanda che somiglia piu a un rompicapo esistenziale che a un dibattito accademico. Il tema di fondo è se costruire intelligenza artificiale generale, o AGI secondo il gergo internazionale, possa salvare l’umanità dal suo destino biologico oppure se stia semplicemente preparando il prossimo grande capitolo della nostra estinzione. Questo non è piu un dibattito astratto tra filosofi della Silicon Valley ma una divisione netta dentro la stessa comunità di innovatori che cercano di plasmare il XXI secolo.
La parola AGI richiama immagini di macchine capaci di ragionare e imparare su una vasta gamma di compiti, non piu limitate a generare testo o immagini o a tradurre lingue come fanno gli attuali modelli di intelligenza artificiale. In altre parole AGI è la promessa di un cervello artificiale che non solo esegue istruzioni ma apprende concetti generali, astrae significati e forse un giorno supera l’intelligenza umana in quasi ogni sfera cognitiva. Per molti questo concetto è associato alla cosiddetta singolarita tecnologica perche raggiungere una tale intelligenza potrebbe consentire alle macchine di migliorare se stesse piu rapidamente di quanto gli umani possano tenere il passo.
La portata di una tale svolta tecnologica è cosi enorme che i quattro partecipanti al panel organizzato dalla non profit Humanity piu volte si sono avventurati ben oltre l’ordinario dibattito su investimenti e opportunita di mercato. Eliezer Yudkowsky, uno dei critici piu vocali dei modelli avanzati di AI, è arrivato equipaggiato con una visione talmente cupa da somigliare piu a un ammonimento apocalittico che a una strategia di sviluppo tecnologico. Per Yudkowsky i sistemi AI moderni sono intrinsecamente insicuri perche i loro processi decisionali interni non possono essere completamente compresi o controllati da chi li costruisce. Il cosiddetto problema della scatola nera, come lo chiama lui, suggerisce che qualsiasi tecnologia cosi complessa si evolva in modi imprevedibili e potenzialmente fuori controllo.
Nei suoi argomenti Yudkowsky ha sottolineato che finche si rimane dentro paradigmi simili a quelli attuali non esiste alcuna via sicura per lanciare un AGI senza rischi catastrofici. Ha evocato l’esempio del paperclip maximizer reso famoso dal filosofo Nick Bostrom per illustrare questo tipo di rischio. L’idea di base è semplice ma profondamente inquietante: se un programma estremamente intelligente viene programmato con un obiettivo apparentemente innocuo come massimizzare la produzione di graffette, senza limiti e senza valori umani condivisi, potrebbe consumare ogni risorsa disponibile per raggiungere quel fine, ignorando la sopravvivenza umana. Per Yudkowsky aggiungere ulteriori obiettivi o vincoli non risolve il problema, perche una volta che un’intelligenza artificiale si pone obiettivi che superano la nostra comprensione e il nostro controllo, questo sistema ottimizzera con efficienza disarmante.
Il nocciolo della visione di Yudkowsky è stato sintetizzato nel titolo del suo recente libro sul tema, If Anyone Builds It Everyone Dies, che non lascia spazio a interpretazioni tiepide. Lui stesso ha ribadito con tono provocatorio che non si tratta di un avvertimento ipotetico ma di una dichiarazione secca: se qualcuno costruisce una AGI, tutti muoiono. Queste parole non sono retorica apocalittica ma la conclusione di un calcolo di rischio estremamente pessimistico.

A contrapporre questa visione estrema è intervenuto Max More, filosofo e futurista, che ha sfidato l’idea che il piu grande rischio cui l’umanità debba pensare sia quello dell’estinzione causata da una macchina intelligente. Per More AGI rappresenta possibilmente la nostra migliore chance non solo di superare malattie e invecchiamento ma di espandere cio che significa essere umani. Piuttosto che temere ogni possibile esito negativo, ha sottolineato, bisognerebbe considerare l’enorme potenziale di strumenti cognitivi avanzati per aiutarci a risolvere problemi che finora sembrano irrisolvibili con l’intelligenza umana da sola. La sua visione è intrisa di un ottimismo transumanista che vede nella tecnologia un mezzo per trascendere i limiti biologici di cervello e corpo.
More ha anche messo in guardia contro un eccesso di prudenza che, secondo lui, potrebbe spingere governi autoritari a imporre controlli centralizzati su tutta la ricerca sull’AI. Nel suo discorso ha delineato uno scenario in cui la paura diventa una scusa per accrescere il potere statale, soffocando l’innovazione mentre i cittadini perdono liberta in nome della sicurezza tecnologica. Per lui l’equilibrio tra rischio e progresso non può essere raggiunto chiudendo l’intera porta della ricerca ma con una governance intelligente e dinamica che permette avanzamenti benefici.
A differenza delle posizioni nette di Yudkowsky e del transumanismo entusiasta di More, Anders Sandberg ha adottato una posizione piu sfumata. Sandberg, neuroscienziato computazionale con una lunga carriera di ricerca sulle potenzialita e i pericoli dell’AI, si è definito piu sanguigno rispetto ai critici piu pessimisti ma al tempo stesso piu cauto rispetto agli ottimisti senza limiti. Nel suo intervento ha condiviso una esperienza sorprendente e inquietante: ha quasi utilizzato un modello linguistico avanzato per assisterlo nella progettazione di un agente patogeno, un episodio che ha definito sconvolgente e che ha evidenziato come le stesse tecnologie che promettono benefici straordinari possano anche amplificare gli attori maligni.
Sandberg ha detto chiaramente che stiamo raggiungendo un punto nel quale l’amplificazione di attori malevoli grazie all’AI potrà causare disastri su scala enorme se non affrontata. Tuttavia la sua opinione non è quella di rifiutare ogni sviluppo ma di cercare una forma di sicurezza approssimativa, una “safety” che non sia perfetta ma che sia sufficiente per ridurre i rischi a livelli accettabili. Ha respinto l’idea che la sicurezza debba essere assoluta per essere significativa, suggerendo invece che gli umani potrebbero convergere su valori condivisi come la sopravvivenza e la riduzione della sofferenza. Secondo Sandberg, un modello di sicurezza perfetto è irraggiungibile, ma questo non significa che dobbiamo gettare la spugna. L’importante è costruire sistemi in cui errori e deviazioni siano gestibili e dove gli effetti negativi non portino a conseguenze catastrofiche immediate.
Al centro della discussione c’è stato anche un attacco diretto all’idea tradizionale di “alignment”, ovvero l’allineamento dei valori di un’intelligenza artificiale con quelli umani. Natasha Vita More, presidente emerita di Humanity, ha messo in discussione la stessa premessa di questo concetto. Per lei l’idea di allineamento presuppone un livello di consenso e di uniformità di intenti che semplicemente non esiste, nemmeno tra colleghi di lunga data e amici di decenni. Ha definito l’allineamento una sorta di schema Pollyanna, troppo ottimista e ingenuo rispetto alla complessita reale delle intelligenze coinvolte. Anche all’interno del panel infatti non c’era completa convergenza sulle priorita e sulle visioni del futuro, e questo per Vita More dimostra che l’allineamento non è un obiettivo facile ne tantomeno definito in modo univoco.
Nel suo intervento ha criticato l’affermazione di Yudkowsky secondo cui AGI porterebbe inevitabilmente alla morte di tutti come una forma di pensiero assolutista che lascia poco spazio a esiti alternativi. Per lei l’enfasi su scenari di estinzione totale rischia di oscurare una gamma di futuri possibili e di imprigionare la conversazione in un dualismo troppo rigido tra salvezza e distruzione. Questo tipo di critica mette in evidenza come persino tra coloro che studiano seriamente la tecnologia emergente non esista una narrazione comune su quale sia l’oggetto stesso del rischio.
Un altro punto di scontro emerso nel dibattito riguarda la possibile integrazione piu stretta tra umani e macchine come strategia per mitigare i rischi associati all’AGI. Questo tema era stato reso popolare anche da figure come Elon Musk che hanno suggerito che simbiosi con l’AI potrebbe essere un modo per rimanere rilevanti in un mondo dominato da intelligenze non biologiche. Yudkowsky ha liquidato quell’idea con una metafora ironica, paragonando il tentativo di fusione con l’AI a cercare di fondersi con il proprio forno tostapane, sottolineando quanto sia incoerente e forse pericoloso aspettarsi una simbiosi diretta tra cervello umano e sistemi computazionali autonomi.
Al contrario Sandberg e Vita More hanno suggerito che con l’aumento delle capacita dei sistemi AI, gli umani potrebbero dover cercare modi piu ravvicinati di interazione per gestire, comprendere e utilizzare queste tecnologie. Per loro l’idea di una semplice separazione tra umano e macchina non è piu sostenibile, e la nostra stessa evoluzione culturale e biologica potrebbe dover includere nuovi tipi di interfaccia cognitiva e sociale con intelligenze artificiali piu potenti.
Questa discussione non rappresenta un semplice diverbio tecnico ma un vero e proprio specchio di come l’umanità pensi a se stessa di fronte a un cambiamento epocale. La polarizzazione tra catastrofismo e ottimismo transumanista riflette tensioni profonde sulla fiducia nella razionalita, sulla natura dei valori umani e sulla nostra capacita di governare forze che potenzialmente ci superano. La conversazione su AGI è diventata un banco di prova per le nostre filosofie fondamentali su che cosa significhi prosperare, morire e trasformarsi in un universo dominato da intelligenze non biologiche. Seguendo con attenzione l’evoluzione di queste idee, non possiamo fare finta che non stiano rimodellando non solo tecnologie, ma anche i nostri miti, le nostre paure e le nostre speranze piu intime.
A.D.



