Shaw Walters non sta scherzando. Secondo il CEO di Eliza Labs, l’intelligenza artificiale generale non è un futuro astratto: è qui, e agisce sotto forma dei sistemi che guidano oggi agenti autonomi su blockchain e piattaforme consumer. La sua definizione di AGI non contempla la forma umana o la coscienza, ma un’intelligenza versatile, rapida e autonoma, capace di apprendere in modi radicalmente diversi dai cervelli biologici. “È molto generale, e per questo pericolosa quanto affascinante”, ammette Walters, con un’ironia tagliente da veterano del software decentralizzato.
L’approccio di Walters nasce da anni di tentativi falliti e successi parziali ai tempi di GPT-3, racconta, gli output strutturati erano poco affidabili, e ogni agente sembrava un bambino con le rotelle. GPT-4 ha cambiato le regole: la capacità di produrre risposte coerenti e strutturate ha permesso agli agenti di compiere azioni reali, segnando il passaggio dalla teoria alla pratica, ma non senza limiti. La lezione? Anche quando la tecnologia sembra pronta, il margine d’errore umano o meglio, agente rimane ineliminabile.
Walters non crede nel mito dell’AGI unica e onnipotente, la diversità degli agenti, secondo lui, è inevitabile: la vita predilige varianti e il dominio di un singolo sistema sarebbe una distorsione contro natura. Questo concetto rifiuta l’idea di “AI God” spesso evocata da altri leader come Sam Altman o Dario Amodei, e pone l’attenzione su scenari più realistici: ecosistemi di agenti autonomi interagenti, ciascuno con comportamenti e rischi propri.
La decentralizzazione resta una chimera, Walters segnala come l’AI completamente distribuita non sia ancora realtà: le piattaforme locali per l’esecuzione degli agenti sono l’approccio più vicino, mentre modelli centralizzati continuano a dominare l’innovazione. Qui emerge un contrasto con le visioni di Vitalik Buterin, che invita a percorrere una strada “Ethereum-style”: decentralizzazione, verificabilità e privacy come guardrail per evitare una corsa cieca all’AGI. Il parallelismo con la blockchain è illuminante: così come la decentralizzazione protegge le reti critiche, potrebbe mitigare i rischi di agenti autonomi incontrollati, dai wallet compromessi alle manipolazioni di mercato.
I rischi di sicurezza sono concreti e immediati: li agenti autonomi hanno acquisito root access su sistemi critici e wallet finanziari, trasformando l’entusiasmo in preoccupazione. Walters sottolinea che non esiste una sicurezza infallibile: l’AGI agisce in modi meno prevedibili di una macchina calcolatrice, oscillando tra brillantezza e stupidità improvvisa. La vulnerabilità agli attacchi come prompt injection o manipolazione dei fondi non è un dettaglio tecnico, ma una questione esistenziale per chi integra questi agenti nelle infrastrutture critiche.
La traiettoria dell’AGI sembra accelerare, e non è solo un’ipotesi, Anthropic e altri leader del settore prevedono che sistemi capaci di competere con l’intelligenza umana compariranno entro pochi anni. La combinazione di agenti persistenti, piattaforme crypto e AI social non è fantascienza: Moltbook, Agentic Wallets di Coinbase e Fetch.ai mostrano quanto velocemente l’adozione stia avvenendo. In questo contesto, la regolamentazione e le pratiche di sicurezza devono inseguire una tecnologia che evolve più rapidamente della politica e della governance.
Curiosamente, l’AGI proposta da Walters non cerca l’imitazione umana, lintelligenza degli agenti non è empatica, ma funzionale; non prova emozioni, ma agisce in maniera complessa e generalista. In questo senso, definire l’AGI come “intelligenza” richiede un salto di paradigma: non è la replica del pensiero umano, ma un nuovo spettro di capacità cognitive. Per gli investitori e i CTO, significa ripensare completamente la progettazione di sistemi affidabili e resilienti.
La sfida tecnica e strategica è duplice: da un lato, creare agenti capaci di autonomia utile senza introdurre rischi catastrofici; dall’altro, far convivere la decentralizzazione dei dati con la scalabilità e la governabilità del sistema. Qui la narrativa blockchain diventa più di una metafora: è un modello operativo per l’AI. Walters, pragmatico e provocatorio, avverte che chi ignora questi aspetti finirà vittima di errori operativi difficili da correggere, perché l’AGI non ammette rollback semplici come nel software tradizionale.
Curiosità storica: il termine AGI nasce nel 1997, ma solo oggi, tra agenti autonomi e ecosistemi blockchain, prende forma concreta. I paralleli con l’internet dei primi anni 2000 sono evidenti: chi ha costruito protocolli resilienti e moduli sicuri ha vinto la corsa, chi ha scommesso sull’effetto hype è rimasto fuori. Walters sembra ripetere questa lezione: l’AGI non è solo questione di algoritmi, ma di struttura, governance e preparazione al caos intrinseco.
L’ottimismo di Walters è pragmatico: l’intelligenza generale esiste, ma non come divinità, non come sistema unico e perfetto. La vera sfida per CTO, venture capitalist e sviluppatori è gestire la complessità, limitare i danni e sfruttare la generalità degli agenti senza illudersi di controllarli totalmente. >Stiamo parlando di sistemi che imparano autonomamente, agiscono autonomamente e, allo stesso tempo, richiedono supervisione costante: una paradossale simbiosi tra libertà e controllo.


